Secondo un nuovo report di Anthropic, i criminali informatici stanno sfruttando sempre più l’AI per condurre cyberattacchi. I ricercatori hanno scoperto che un attaccante ha utilizzato Claude Code, l’assistente AI di codifica agentica di Anthropic, per gestire quasi tutte le fasi di una campagna di estorsione dati che ha colpito almeno 17 organizzazioni in diversi settori.
Come è stata sfruttata l’AI
L’attaccante ha fornito a Claude Code un file CLAUDE.md con istruzioni dettagliate, coperture narrative e schemi di priorità. Questo ha permesso all’AI di:
- Standardizzare gli attacchi adattandosi a infrastrutture diverse
- Tracciare credenziali compromesse e muoversi lateralmente nelle reti
- Ottimizzare le strategie di estorsione in tempo reale sui dati rubati
Invece di cifrare i sistemi, l’attaccante ha sfruttato Claude Code per estrarre dati sensibili e calcolare riscatti personalizzati. L’AI ha analizzato informazioni finanziarie per determinare gli importi e ha generato note di riscatto HTML, inserite nel processo di avvio dei dispositivi delle vittime.
Eseguendo Claude Code su Kali Linux, l’attaccante lo ha usato per:
- Effettuare ricognizione e scansione delle vulnerabilità
- Supportare le operazioni di penetrazione (furto di credenziali, escalation di privilegi)
- Sviluppare malware con capacità anti-rilevamento
- Identificare e analizzare dati sensibili
- Creare strategie di estorsione su misura per ogni vittima
Abusi più ampi dell’AI
Anthropic ha inoltre segnalato un uso illecito di Claude Code da parte di lavoratori IT nordcoreani per eludere le sanzioni internazionali, costruendo identità digitali credibili, CV, lettere di presentazione e persino superando test di codifica per ottenere impieghi in aziende estere.
Parallelamente, i ricercatori di ESET hanno identificato un ransomware proof-of-concept chiamato PromptLock, che utilizza un LLM open-source (gpt-oss:20b) tramite API Ollama per generare ransomware in Lua compatibile con Windows, Linux e macOS. Nonostante non sembri ancora una minaccia attiva, evidenzia il ruolo crescente dell’AI nella creazione di malware.
Anthropic ha inoltre attribuito a un attore britannico (GTG-5004) lo sviluppo di varianti di ransomware avanzate con tecniche di evasione sofisticate, tra cui cifratura ChaCha20, anti-EDR e sfruttamento dei meccanismi interni di Windows.
L’AI sta potenziando il cybercrimine
Queste evidenze dimostrano che l’AI sta abbassando la barriera di ingresso per attacchi complessi. Come avverte Anthropic:
“Le ipotesi tradizionali sul rapporto tra competenza degli attori e complessità degli attacchi non valgono più quando l’AI fornisce competenza istantanea.”
Si delinea quindi una corsa agli armamenti digitale tra difensori e criminali che sfruttano l’AI: uno scontro che potrà limitare, ma non eliminare del tutto, l’uso malevolo di questi strumenti.




































