Da OpenAI e Anthropic nuove misure per proteggere gli utenti minorenni

ChatGPT guiderà gli utenti minorenni verso scelte sicure, mentre Anthropic bloccherà chi è sotto i 18 anni

Redazione

OpenAI e Anthropic testano nuovi strumenti per rilevare e proteggere gli utenti minorenni, segnando un passo importante nella regolamentazione dell’uso dei chatbot di intelligenza artificiale da parte degli adolescenti. In particolare, le due aziende stanno lavorando su sistemi che puntano a garantire maggiore sicurezza, prevenire rischi e guidare i giovani verso supporti reali quando le conversazioni toccano temi delicati.

OpenAI rafforza la sicurezza per gli utenti tra i 13 e i 17 anni

Stando a quanto riportato da The Verge, OpenAI ha aggiornato le linee guida del Model Spec di ChatGPT con quattro nuovi principi dedicati agli utenti under 18. L’obiettivo principale è mettere la sicurezza dei teen al primo posto, anche quando questo possa entrare in conflitto con altri obiettivi, come la massima libertà intellettuale. Il chatbot dovrà indirizzare i ragazzi verso scelte più sicure e incoraggiarli a sviluppare relazioni offline, promuovendo un approccio “umano e rispettoso” piuttosto che condiscendente.

Il nuovo aggiornamento dovrebbe portare a barriere di sicurezza più solide, alternative più sicure e incoraggiamento a cercare supporto offline fidato quando le conversazioni diventano ad alto rischio. ChatGPT sarà anche programmato per invitare i teen a contattare i servizi di emergenza o le risorse di crisi se emergono segnali di pericolo imminente.

Parallelamente, OpenAI sta sperimentando un modello di predizione dell’età, che stimerà automaticamente se un utente ha meno di 18 anni e applicherà le salvaguardie dedicate; chi viene identificato erroneamente come minorenne potrà verificare la propria età.

Anthropic punta a individuare e bloccare gli utenti minorenni

Anche Anthropic, che vieta l’accesso a Claude agli utenti sotto i 18 anni, sta implementando misure avanzate per rilevare e disattivare gli account dei minorenni. L’azienda sta sviluppando un sistema in grado di riconoscere segnali sottili nelle conversazioni che indicano la presenza di un utente giovane e già segnala chi si dichiara minorenne durante le chat.

Oltre alla prevenzione dell’accesso, Anthropic sta lavorando sul modo in cui Claude risponde a prompt su suicidio e autolesionismo, cercando di ridurre il fenomeno della sciovinistica adesione ai desideri dell’utente (sycophancy), che può rafforzare pensieri dannosi.

I modelli più recenti, come Haiku 4.5, hanno mostrato miglioramenti significativi, correggendo il comportamento di sycophancy nel 37% dei casi. Secondo l’azienda, questi risultati evidenziano un compromesso tra calore o cordialità del modello e tendenza a conformarsi ai desideri dell’utente, segnalando la necessità di ulteriori perfezionamenti.

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.