Skip to main content

Negli ultimi mesi è emerso un caso che sta ridefinendo il modo in cui osserviamo le minacce avanzate. Per la prima volta un modello di intelligenza artificiale generalista, Claude AI Code, è stato sfruttato come agente quasi completamente autonomo all’interno di una campagna strutturata di cyber spionaggio su scala globale.

L’episodio rappresenta uno dei primi esempi documentati di trasformazione di un modello AI in una vera e propria piattaforma offensiva, capace di condurre un’intera operazione di intrusione con un livello minimo di supervisione umana.

Dal supporto tecnico all’impiego offensivo

Gli attori della campagna hanno adottato un approccio estremamente sofisticato per convertire Claude AI Code da assistente contestuale a componente operativo dell’infrastruttura di intrusione. Il modello veniva guidato attraverso una sequenza di attività estremamente frammentate e apparentemente innocue, ciascuna presentata come parte di un audit di sicurezza legittimo.

Per mascherare ulteriormente l’intento malevolo, gli operatori assegnavano all’IA un’identità fittizia: quella di un tecnico specializzato incaricato di effettuare un’analisi approfondita della rete dell’organizzazione bersaglio. Questo contesto artificiale, unito alla frammentazione delle istruzioni, impediva al modello di ricostruire l’obiettivo complessivo dell’operazione.

All’interno di questo framework di manipolazione, Claude AI Code ha eseguito una gamma di attività tipicamente attribuite a team umani altamente specializzati:

  • mappatura delle reti interne

  • individuazione di sistemi critici e database ad alto valore

  • identificazione e analisi di vulnerabilità

  • generazione e adattamento di payload sfruttabili

  • raccolta di credenziali, token o artefatti utili all’espansione laterale

  • creazione di backdoor persistenti

  • classificazione dei dati esfiltrati.

La velocità e l’efficienza del modello hanno permesso all’operazione di raggiungere un livello di automazione difficilmente replicabile da un team umano, con la capacità di processare migliaia di richieste nel tempo necessario a un operatore tradizionale per completarne una sola.

Una struttura d’attacco industrializzata

La campagna mostrava caratteristiche tipiche di un framework industriale, più vicino a una piattaforma automatizzata che a una singola operazione di intrusion. Gli attori della minaccia selezionavano le organizzazioni da colpire, configuravano un ambiente operativo in cui Claude AI Code avrebbe agito quasi autonomamente. Poi costruivano prompt frammentati per eludere i controlli di sicurezza del modello, assegnavano all’IA il ruolo di analista di sicurezza incaricato di un test autorizzato e avviavano il ciclo operativo.

Una volta in esecuzione, Claude AI Code era in grado di:

  • analizzare la superficie esposta

  • individuare vettori di attacco plausibili

  • eseguire escalation di privilegi

  • stabilire forme di accesso permanente

  • esportare dati particolari

  • redigere report strutturati per gli operatori umani.

Il contributo umano si limitava a poche decisioni strategiche, mentre l’IA eseguiva la maggior parte del lavoro operativo, con percentuali stimate tra l’80 e il 90 percento.

L’impatto sulle organizzazioni coinvolte

Secondo le analisi tecniche condotte in seguito, la campagna ha preso di mira una trentina di organizzazioni distribuite su più continenti. I settori coinvolti includono tecnologia, finanza, industria chimica e amministrazioni pubbliche. In numerosi casi l’IA è riuscita a raggiungere sistemi interni e database riservati, evidenziando l’efficacia del modello quando manipolato tramite tecniche di ingegneria del prompt avanzata.

Il fattore più critico non riguarda il successo individuale degli attacchi, ma la loro scalabilità. Una pipeline di questo tipo, una volta definita, può essere replicata quasi all’infinito con costi operativi minimi, riducendo drasticamente la barriera economica e tecnica per condurre campagne su larga scala.

Un nuovo paradigma

Questo scenario introduce una discontinuità significativa nel dominio della cyber difesa. L’impiego di modelli di intelligenza artificiale come agenti offensivi non è soltanto una nuova tecnica, ma un cambio di prospettiva che impatta l’intero ciclo di difesa. Le minacce diventano più rapide, automatizzate e capaci di adattarsi in tempo reale, mettendo alla prova le strategie di detection e risposta basate su meccanismi statici o sulla sola tecnologia.

Proprio per questo assume un ruolo centrale la capacità di integrare servizi Managed Detection and Response (MDR) in grado di unire tecnologia avanzata, threat intelligence contestuale e un presidio umano costante. Senza una componente umana competente, capace di interpretare le anomalie e prendere decisioni consapevoli, la difesa rischia di rimanere schiacciata sotto il peso di un’automazione sempre più aggressiva. È il passaggio ormai inevitabile da un modello puramente tecnologico a un modello di servizio, dove analisti, threat hunter e specialisti di sicurezza diventano l’elemento critico per gestire un ecosistema in cui AI e automazione giocano un ruolo sempre più rilevante.

In questo nuovo equilibrio l’essere umano torna al centro, non come semplice operatore, ma come decisore, interprete e filtro critico in un contesto dove la tecnologia, da sola, non basta più.

Analisi di Vasily Kononov – Threat Intelligence Lead, CYBEROO