Assistenti AI nel mirino dei cybercriminali: quando l’intelligenza artificiale diventa arma

Gli assistenti virtuali evoluti permettono agli hacker di aggirare controlli di sicurezza e generare codice malevolo in tempo reale

Redazione
ciso

Gli assistenti AI con funzionalità di navigazione web e recupero URL stanno emergendo come un nuovo punto critico nella cybersecurity. E questo perché, secondo l’ultima analisi della società di cybersecurity Check Point, possono essere manipolati per fungere da relay stealth per attività di command-and-control (C2). Osservato su piattaforme come Microsoft Copilot e xAI Grok, questo sviluppo evidenzia come strumenti concepiti per migliorare l’efficienza possano diventare involontari alleati di cybercriminali, mimetizzando comunicazioni malevole all’interno di flussi legittimi.

Assistenti AI e funzioni avanzate

Stando a quanto riportato da Hacker News, l’evoluzione degli assistenti virtuali ha introdotto capacità sofisticate come l’accesso diretto a risorse web e la possibilità di recuperare dati tramite URL. Queste funzioni, pensate per offrire risposte aggiornate in tempo reale, possono essere sfruttate da un attaccante per creare canali bidirezionali di comunicazione tra sistemi compromessi e infrastrutture remote, bypassando controlli tradizionali.

Check Point ha definito questa tecnica AI as a C2 proxy, sottolineando come sia possibile generare workflow di ricognizione, scriptare azioni e decidere dinamicamente “cosa fare dopo” durante un’intrusione, senza necessità di chiavi API o account registrati.

Il rischio concreto di abuso

L’uso malevolo degli assistenti AI richiede che il sistema target sia già compromesso tramite malware, che poi sfrutta Copilot o Grok come canale C2, inviando prompt appositamente progettati per far interagire l’AI con infrastrutture controllate dall’attaccante e ricevere comandi da eseguire localmente.

In questo scenario, gli AI agent possono anche elaborare strategie di evasione, determinando i prossimi passi in base allo stato del sistema, trasformandosi in veri e propri motori decisionali esterni, aprendo la strada a C2 automatizzati in stile AIOps.

Una volta che i servizi di intelligenza artificiale potranno essere utilizzati come un livello di trasporto stealth, la stessa interfaccia potrà anche trasportare prompt e output di modelli che agiscono come un motore decisionale esterno, un trampolino di lancio verso impianti basati sull’intelligenza artificiale e C2 in stile AIOps che automatizzano il triage, il targeting e le scelte operative in tempo reale“, ha affermato Check Point.

Possibili conseguenze per aziende e utenti

L’integrazione sempre più profonda degli AI assistant nei flussi di lavoro amplia significativamente la superficie di attacco. La possibilità di accedere a fonti esterne e gestire dati in cloud può facilitare il trasferimento di informazioni sensibili o l’esecuzione di comandi senza supervisione umana.

Tecniche analoghe sono state osservate in attacchi di phishing avanzati, dove snippet di codice malevolo vengono generati dinamicamente dai modelli linguistici e assemblati direttamente nel browser della vittima, aggirando controlli di sicurezza tradizionali.

Takeaway operativo

Chi implementa assistenti AI con capacità di browsing o fetching deve monitorare i flussi di dati, limitare i permessi e analizzare attentamente i pattern di utilizzo. Solo attraverso controlli accurati e politiche di sicurezza solide è possibile mitigare i rischi e sfruttare le potenzialità dell’intelligenza artificiale in maniera sicura, prevenendo che diventi un vettore di attacco invisibile.

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.