Dagli Stati Uniti il progetto per un’intelligenza artificiale capace di prevedere i cyberattacchi

Un team di ricerca sta lavorando su un chatbot a intelligenza artificiale in grado di prevedere i futuri cyberattacchi partendo dai social

Redazione
deepfake, intelligenza artificiale, AI, amazon, adobe, shopify, mistral, chatbot, fastweb, GenAI, agent AI, AI Agent

Sempre più frequenti e distruttivi i cyberattacchi, al punto che i loro danni stanno diventando al pari di quelli dei disastri naturali. Tuttavia, negli Stati Uniti un team di ricerca sta mettendo a punto un chatbot a intelligenza artificiale che potrebbe aiutare a prevederli. E lo fa analizzando i social media.

L’intelligenza artificiale che analizza il sentimento degli utenti

Un team di ricercatori del Georgia Tech’s Scheller College of Business, in collaborazione con l’Università del Distretto di Columbia (UDC), ha sviluppato un chatbot in grado di analizzare il sentimento degli utenti sui social media più utilizzati, come X.

Ma cosa si intende per “sentimento” a livello social? In pratica quello che scaturisce leggendo un post o un feedback di un utente. In sostanza, l’analisi prevede l’utilizzo di un metodo che misura emozioni, atteggiamenti e stati d’animo espressi nel testo.

Non un metodo così pionieristico, se si pensa che grandi aziende utilizzano da tempo l’analisi del sentimento per capire il feedback dei clienti su prodotti e marchi. Anche durante la pandemia di COVID-19, riferisce Techxplore, i governi hanno usato dei chatbot per valutare l’opinione pubblica su vaccini e misure preventive.

Tuttavia, applicare questo approccio per individuare o prevedere potenziali minacce informatiche rappresenta un’innovazione nel campo della sicurezza digitale.

Per saperne di più: Intelligenza artificiale: cos’è e come funziona, tutto sulla AI

Il chatbot AI che prevede i cyberattacchi

Per quanto cercare hacker attraverso l’analisi del sentimento sia un compito complesso, grazie ai modelli predittivi l’AI può monitorare una popolazione specifica e riuscire a individuare segnali di approvazione o prevedere intenzioni dannose verso la tecnologia.

Il progetto rappresenta solo l’inizio di una nuova metodologia di prevenzione, che potrebbe essere estesa anche ad altre lingue e piattaforme. Un inizio anche robusto, visto che per il loro chatbot i ricercatori hanno raccolto, in un periodo di sperimentazione di tre mesi, i feedback e i dati di oltre 100mila utenti.

Per sapere cosa hanno scoperto, e se hanno effettivamente individuato degli indizi in merito, vi consigliamo di leggere i risultati dello studio pubblicati nella rivista Sustainability.

Amit Arora et al, Developing Chatbots for Cyber Security: Assessing Threats through Sentiment Analysis on Social MediaSustainability (2023). DOI: 10.3390/su151713178

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.