I cyberattacchi potenziati dall’intelligenza artificiale stanno trasformando radicalmente la sicurezza informatica delle aziende. Secondo l’ultimo report di Google Cloud Security, le applicazioni di terze parti rappresentano oggi l’anello più vulnerabile per le organizzazioni. I criminali informatici, aiutati da sistemi di AI, individuano e sfruttano le falle in tempi estremamente ridotti, riducendo la finestra di intervento delle aziende da settimane a pochi giorni. La conseguenza è una pressione senza precedenti sui team IT, chiamati a difendere infrastrutture sempre più complesse e interconnesse.
Intelligenza artificiale e cloud: escalation delle minacce
Il rapporto di Google evidenzia come l’intelligenza artificiale stia amplificando la capacità degli aggressori di violare sistemi cloud. I criminali informatici non si concentrano più sulle infrastrutture principali di Google Cloud, Amazon Web Services o Microsoft Azure, ormai ben protette, ma sulle applicazioni di terze parti, spesso meno monitorate e aggiornate.
Tra gli esempi riportati dal report, vulnerabilità critiche come quella di React Server Components (CVE-2025-55182, nota come React2Shell) sono state sfruttate entro 48 ore dalla pubblicazione della patch.
Un’altra falla significativa in XWiki Platform (CVE-2025-24893), sebbene corretta nel 2024, è ampiamente sfruttata nel novembre 2025 perché le aziende non avevano implementato l’aggiornamento. Questi episodi dimostrano come l’AI accelera la scoperta di vulnerabilità, riducendo drasticamente il tempo disponibile per intervenire.
Software di terze parti: l’anello più debole
Il report sottolinea come le applicazioni sviluppate da fornitori esterni siano oggi il bersaglio privilegiato degli attacchi. Gli aggressori, inclusi gruppi criminali e soggetti sponsorizzati da stati come la Corea del Nord, sfruttano RCE (remote code execution) e strumenti largamente diffusi tra le aziende, dai pacchetti open-source ai plugin per dashboard e servizi business.
Un caso emblematico coinvolge il gruppo UNC4899: un file malevolo, apparentemente parte di un progetto open-source, viene trasferito da un dispositivo personale a una workstation aziendale, dove l’AI dell’ambiente di sviluppo integrato ha eseguito codice malevolo, aprendo un accesso remoto alla rete interna dell’azienda.
Un altro episodio ha visto sfruttare un pacchetto Node Package Manager per rubare token GitHub e accedere a dati in AWS S3, il tutto in meno di 72 ore.
Difesa contro AI cloud cyberattacks: cosa cambia per la sicurezza
Per fronteggiare questa nuova generazione di minacce, il report di Google raccomanda difese automatizzate potenziate dall’AI. I team di sicurezza devono monitorare costantemente le piattaforme cloud, implementare aggiornamenti rapidi dei software di terze parti e rafforzare la gestione di identità e accessi con autenticazione a più fattori.
La collaborazione con fornitori esterni diventa cruciale: ritardi nell’applicazione delle patch o nella comunicazione possono consentire ai criminali di sfruttare vulnerabilità in pochissimo tempo. Il documento evidenzia anche la crescente minaccia interna: dipendenti o consulenti possono inviare dati riservati fuori dall’organizzazione tramite servizi di cloud consumer come Google Drive, Dropbox o OneDrive.
Le raccomandazioni includono: monitoraggio continuo dei software di terze parti, applicazione rapida delle patch, implementazione di strumenti di rilevamento delle anomalie e predisposizione di un piano di risposta agli incidenti pronto a scattare nelle prime ore di un’intrusione. Per le PMI senza esperti di sicurezza interni, il report suggerisce di affidarsi a fornitori di servizi gestiti con competenze specifiche.
Azioni prioritarie per le aziende
L’emergere degli AI cloud cyberattacks impone alle aziende di accelerare la resilienza dei propri sistemi. Aggiornamenti tempestivi, monitoraggio costante e collaborazione stretta con i fornitori esterni sono fondamentali per ridurre l’esposizione e prevenire intrusioni. Solo con strategie proattive e strumenti difensivi automatizzati le organizzazioni possono sperare di contenere i rischi derivanti dalle nuove minacce AI.
Fonte: ZDNet