Antitrust contro le “allucinazioni” dell’AI: chatbot obbligati a essere più trasparenti

Sotto la lente DeepSeek, Le Chat e Nova AI: l’Agcm chiede avvisi chiari sui limiti dell’intelligenza artificiale generativa

Redazione
Avviso Antitrust sui rischi delle allucinazioni ai generative nei chatbot

L’intelligenza artificiale generativa entra ufficialmente nel radar dell’Antitrust italiano. L’Autorità garante della concorrenza e del mercato ha infatti chiuso tre istruttorie aperte nei confronti di DeepSeek, Mistral e Nova AI, chiedendo alle piattaforme maggiore chiarezza sui limiti dei propri chatbot. Al centro dell’intervento ci sono le cosiddette “allucinazioni”, ovvero quelle risposte false, inesatte o completamente inventate che i sistemi di AI possono generare pur mantenendo un tono credibile e autorevole.

Per il momento non sono state comminate sanzioni, ma le aziende coinvolte hanno assunto impegni vincolanti per aumentare la trasparenza verso gli utenti. Un passaggio che segna uno dei primi interventi concreti in Europa sul rapporto tra tutela del consumatore e intelligenza artificiale generativa.

L’Antitrust interviene sui rischi delle allucinazioni dei chatbot

La decisione dell’Agcm nasce dalla crescente diffusione dei chatbot nella vita quotidiana e professionale. Sempre più utenti si affidano all’intelligenza artificiale per ottenere informazioni legali, sanitarie, economiche o finanziarie, spesso attribuendo alle risposte un livello di affidabilità elevato.

A far emergere con forza il problema è stato anche il caso dell’avvocato che aveva citato in tribunale sentenze inesistenti generate da un chatbot. Episodi di questo tipo hanno acceso i riflettori sul rischio concreto di utilizzare contenuti prodotti dall’AI senza verificarne la correttezza.

Secondo l’Antitrust, il nodo centrale riguarda proprio la mancanza di avvisi chiari e immediati sui limiti di questi sistemi. Molte piattaforme, infatti, inseriscono riferimenti generici alle possibili inesattezze soltanto all’interno di lunghi termini di servizio, spesso poco accessibili agli utenti.

Per l’Autorità, questa pratica può trasformarsi in una potenziale violazione del Codice del consumo, perché impedisce alle persone di utilizzare i servizi digitali con piena consapevolezza. Da qui la richiesta di disclaimer più visibili e comprensibili direttamente nelle interfacce di utilizzo dei chatbot.

Gli impegni di DeepSeek, Mistral e Nova AI

L’approccio adottato dall’Agcm è stato prevalentemente preventivo. Nessuna multa immediata, ma una serie di obblighi che le aziende dovranno rispettare entro 120 giorni, pena la riapertura delle istruttorie e sanzioni che potrebbero arrivare fino a circa 11 milioni di euro.

DeepSeek ha accettato il pacchetto più ampio di misure. La piattaforma cinese dovrà introdurre avvisi ben visibili sul rischio di allucinazioni sia nelle chat sia sul proprio sito web, traducendo integralmente in italiano i disclaimer più rilevanti. Inoltre, l’azienda si è impegnata ad avviare programmi interni di formazione sulla compliance e a investire concretamente nella riduzione del tasso di errori generati dall’AI.

Anche Mistral, sviluppatrice del chatbot Le Chat, dovrà rafforzare la comunicazione verso gli utenti. La società francese inserirà messaggi espliciti nelle conversazioni, con formule che avvertano chiaramente della possibilità di errori nelle risposte. Oltre a questo, saranno migliorati i termini di servizio, che verranno resi più accessibili lungo tutto il percorso dell’utente, dall’homepage fino alle schermate di registrazione e login.

Più particolare il caso di Nova AI, piattaforma gestita dalla turca Scaleup Yazilim. L’istruttoria ha evidenziato come il servizio si presentasse agli utenti come un’unica AI proprietaria, pur funzionando in realtà come aggregatore di diversi modelli, tra cui ChatGPT, Gemini, Claude e DeepSeek. L’azienda dovrà quindi chiarire esplicitamente la propria natura di piattaforma multi-modello e specificare che non elabora né modifica le risposte generate dai sistemi sottostanti.

Una svolta europea nella regolamentazione dell’AI generativa

L’intervento dell’Antitrust italiana rappresenta un precedente importante nel panorama europeo. È infatti la prima volta che un’autorità di regolazione ottiene impegni così specifici e vincolanti sulla trasparenza delle allucinazioni prodotte dai chatbot.

La scelta dell’Agcm si inserisce anche nel quadro delineato dall’AI Act europeo, che impone ai fornitori di modelli di intelligenza artificiale per uso generale di comunicare in modo adeguato capacità e limiti dei propri sistemi. Il punto centrale, però, riguarda cosa significhi concretamente “adeguato” nella pratica quotidiana.

Con questa iniziativa, l’Italia prova di fatto a fissare alcuni standard minimi: avvisi visibili, linguaggio comprensibile e accessibilità immediata delle informazioni sui rischi legati ai chatbot.

Più consapevolezza per utenti e piattaforme

La vicenda non riguarda soltanto le aziende tecnologiche, ma anche il modo in cui gli utenti si rapportano all’intelligenza artificiale. La diffusione capillare dei chatbot rende infatti sempre più necessario sviluppare un approccio critico verso le risposte generate automaticamente.

Leggere gli avvisi, verificare le informazioni ricevute e confrontarle con fonti attendibili diventa fondamentale, soprattutto nei settori più delicati come salute, diritto e investimenti finanziari.

Allo stesso tempo, le piattaforme saranno chiamate a un salto di qualità sul fronte della responsabilità. La trasparenza sui limiti dell’AI non viene più vista come un dettaglio secondario, ma come un elemento essenziale per costruire fiducia e garantire una tutela concreta dei consumatori nell’ecosistema digitale.

Come cambiano le scelte digitali degli utenti

Gli utenti che interagiscono ogni giorno con la AI dovranno adottare un atteggiamento sempre più critico e informato. Leggere attentamente gli avvisi, non affidarsi ciecamente alle risposte e confrontare le informazioni con fonti affidabili sono le prime regole da seguire.

Questi nuovi obblighi per le piattaforme renderanno il panorama digitale meglio protetto e aiuteranno ogni utente a navigare con maggiore consapevolezza.

Fonte: Wired

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.