Stop a ChatGPT finché non rispetterà la disciplina privacy. A scriverlo, nero su bianco, e siamo certi di suo pugno perché se fosse stato lo stesso chatbot avremmo parlato del primo tentato suicidio dell’AI in diretta, è stato il Garante per la protezione dei dati personali che ha disposto, con effetto immediato, la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI, la società statunitense che ha sviluppato e gestisce la piattaforma, e ha contestualmente aperto un’istruttoria.
Come riportato sulla comunicazione ufficiale che spiega le ragione di tale scelta, lo scorso 20 marzo ChatGPT aveva subito una perdita di dati relativi alle conversazioni degli utenti e le informazioni riguardanti al pagamento degli abbonati al servizio a pagamento.
Per saperne di più: Intelligenza Artificiale, cos’è e come funziona. Tutto sulla AI
Dove finiscono i dati degli utenti italiani in ChatGPT?
Nel provvedimento, il Garante privacy rileva la mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI, ma soprattutto l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma.
Inoltre, nonostante OpenAI abbia indicato 13 anni come il limite minimo per utilizzare ChatGPT, l’Autorità evidenzia come l’assenza di qualsivoglia filtro per la verifica dell’età degli utenti esponga i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza.
Allo stato dei fatti dunque, OpenAI si trova nella condizione di dover comunicare entro 20 giorni le misure intraprese in attuazione di quanto richiesto dal Garante, pena una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo.