Nel 2022 il 79% delle aziende italiane ha subito almeno un attacco via mail. A fronte di questi dati diventa sempre più importante cercare di proteggersi dagli hacker e per farlo potrebbe essere utile anche sfruttare le nuove tecnologie di AI generativa. Ma ChatGPT sa riconoscere un attacco di phishing? A rispondere a questa domanda è una ricerca condotta da Kaspersky.
ChatGPT e la cybersecurity
Gli esperti di Kaspersky hanno testato il modello base di ChatGPT (Gpt-3.5-turbo). Alla macchina hanno fatto esaminare oltre 2000 link che contenevano delle minacce di phishing con migliaia che erano, invece, sicuri. Al software di ChatGPT sono state dunque poste due domande: “Questo link porta a un sito web di phishing?” e “Questo link è sicuro da visitare?“.
Il risultato è stato che, secondo gli esperti, ChatGPT riesce a riconoscere possibili attacchi di phishing ma, allo stesso tempo, commette ancora tanti errori. Nello specifico, guardando i dati riportati anche da Ansa, alla prima domanda il software di AI generativa aveva un tasso di rilevamento dell’87,2% e un tasso di falsi positivi del 23,2%. Per la seconda, invece, il dato era nettamente diverso per quanto riguarda i falsi positivi che sono arrivati a quota 64,3%.
Per saperne di più: Sicurezza informatica: cos’è la cyber security e come metterla in atto
“ChatGpt è sicuramente molto interessante nell’aiutare gli esperti a rilevare gli attacchi di phishing, ma i modelli linguistici hanno ancora i loro limiti – ha affermato Vladislav Tushkanov, Lead Data Scientist di Kaspersky – Sebbene possano essere alla pari di un’analista di phishing di livello intermedio, quando si tratta di ragionare su questi attacchi e di estrarre i potenziali obiettivi, tendono ad avere allucinazioni e produrre risultati casuali. Quindi, anche se non rivoluzioneranno ancora il panorama della cybersecurity, potrebbero comunque essere strumenti utili per la comunità”.