In concomitanza con la partecipazione del CEO Dario Amodei al World Economic Forum di Davos, Anthropic ha pubblicato una versione aggiornata della Costituzione di Claude, il documento che definisce il contesto operativo e i principi etici del suo chatbot.
Anthropic aggiorna la “Costituzione” di Claude
Anthropic ha cercato a lungo di posizionarsi come alternativa etica ad altre aziende di intelligenza artificiale – come OpenAI e xAI – che hanno corteggiato con maggiore aggressività la disruption e le controversie.
Proprio per questo, riporta Tech Crunch, dal 2023, Anthropic ha adottato questo approccio, “Constitutional AI”, in cui Claude viene addestrato sulla base di un insieme di principi etici anziché affidarsi esclusivamente al feedback umano. La versione aggiornata della Costituzione mantiene la struttura originale ma introduce maggiori dettagli e sfumature su elementi come, etica, tutela degli utenti e soprattutto sicurezza.
La Costituzione, lunga 80 pagine, è articolata in quattro sezioni che delineano i valori fondamentali di Claude: essere sicuro, etico, conforme alle linee guida di Anthropic e genuinamente utile. Ogni principio viene approfondito, mostrando come influisca sul comportamento del chatbot.
Sicurezza e principi etici alla base di Claude
Sul fronte della sicurezza, Claude è programmato per gestire situazioni delicate, come segnali di problemi di salute mentale, indirizzando gli utenti verso i servizi di emergenza adeguati. Allo stesso tempo, il chatbot è vincolato a restrizioni precise su argomenti rischiosi, come lo sviluppo di armi biologiche.
Un’altra componente fondamentale riguarda la dimensione etica. Anthropic sottolinea che l’obiettivo non è teorico, ma pratico: Claude deve saper agire eticamente in contesti reali, affrontando dilemmi concreti con consapevolezza e responsabilità. Il chatbot deve essere in grado di navigare situazioni complesse, bilanciando sicurezza, norme morali e impatto delle sue risposte sugli utenti.
La Costituzione evidenzia anche l’impegno di Claude a essere utile: il modello deve considerare non solo i desideri immediati dell’utente, ma anche il suo benessere a lungo termine, cercando di interpretare correttamente le intenzioni e fornire risposte ponderate. Ogni interazione è progettata per riflettere questi principi, garantendo equilibrio tra supporto pratico e responsabilità etica.
Lo status morale dell’AI
Il documento si chiude con una riflessione sullo status morale dell’AI, riconoscendo che la coscienza di Claude resta incerta e merita attenzione, un interrogativo condiviso anche da filosofi di rilievo nel campo della teoria della mente.
“Lo status morale di Claude è profondamente incerto“, afferma il documento. “Riteniamo che lo status morale dei modelli di intelligenza artificiale sia una questione seria che merita di essere presa in considerazione. Questa visione non è esclusiva nostra: alcuni dei più eminenti filosofi della teoria della mente prendono questa questione molto seriamente“.