Intelligenza artificiale e medicina: i 6 principi dell’OMS

L’OMS ha pubblicato 6 principi etici cui dovrebbe attenersi chi sviluppa sistemi di intelligenza artificiale per il mondo sanitario. Al centro l’etica e i diritti umani

Redazione
Medicina: battito del cuore - intelligenza artificiale

L’OMS, l’Organizzazione Mondiale della Sanità, ha pubblicato il primo rapporto globale sull’intelligenza artificiale all’interno del perimetro medico e ha ricavato sei principi guida per la sua progettazione e utilizzo in questo particolare settore.

Riconosciuto il potenziale di questa tecnologia per l’assistenza sanitaria e la medicina in tutto il mondo, l’OMS mette al centro della propria riflessione l’etica e i diritti umani nella progettazione di tali sistemi. Non è un caso che il rapporto pubblicato abbia il titolo di Etica e governance dell’intelligenza artificiale per la salute.

“Questo nuovo importante rapporto fornisce una guida preziosa per i paesi su come massimizzare i benefici dell’IA, riducendo al minimo i suoi rischi”, ha affermato il dott. Tedros Adhanom Ghebreyesus, direttore generale dell’OMS.

Tra i benefici apportati dai sistemi di intelligenza artificiale, l’OMS cita la velocità e l’accuratezza della diagnosi e dello screening delle malattie, l’assistenza, il rafforzamento della ricerca sanitaria e lo sviluppo di farmaci, la risposta alle epidemie e la gestione dei sistemi sanitari.

L’intelligenza artificiale potrebbe anche consentire ai pazienti di assumere un maggiore controllo della propria assistenza sanitaria e comprendere meglio le esigenze in evoluzione. Potrebbe anche consentire ai paesi poveri di risorse e alle comunità rurali, dove i pazienti spesso hanno accesso limitato agli operatori sanitari o ai medici, di colmare le lacune nell’accesso ai servizi sanitari.

Ad aprile, Andrew Ng, professore di Informatica all’Università di Stanford, aveva spiegato quale potrebbe essere l’evoluzione dell’intelligenza artificiale in medicina, descrivendo cinque livelli di automazione. 

Livello 1. Nessun sistema di IA è coinvolto
Nel livello 1 nessun sistema di IA è coinvolto nel processo. Qualsiasi procedura medica che contenga dati (o meno) può essere inserita in questa categoria. In questo livello, sia che si tratti di lavoro manuale o di immissione di dati per generare un processo, possono essere coinvolti semplici algoritmi, ma non l’intelligenza artificiale.

Livello 2. Il medico insegna e l’IA apprende

L’IA può subire un processo di “addestramento” simile a quello degli studenti. Per esempio, mentre un medico fa una diagnosi basandosi su una radiografia, l’intelligenza artificiale “apprendista” segue il processo senza interferire con esso. L’algoritmo quindi prende appunti, controlla l’accuratezza della decisione del medico e registra tutto ciò che può supportare una futura decisione diagnostica.

Livello 3. IA come assistente
Qui l’intelligenza artificiale supporta i medici nel processo decisionale clinico tramite suggerimenti. Per esempio, dopo la scansione di un database di immagini TC del torace, l’IA analizza quelle specifiche di un paziente ed evidenzia i segni sospetti di malattia. Questi ultimi vengono poi ulteriormente indagati dal medico.

Livello 4. Automazione parziale
Con l’automazione parziale, un sistema di IA può arrivare alla diagnosi; ma se non è abbastanza sicuro si rivolge ai medici per un aiuto. Diverse aziende oggi stanno lavorando su soluzioni di questo tipo.

Livello 5. Automazione completa
I processi di automazione completa sono eseguiti da un sistema di intelligenza artificiale senza il coinvolgimento dell’uomo. Per esempio, un sistema di livello 5 potrebbe analizzare una mammografia e richiedere test successivi senza consultare il medico.

Con uno sguardo al futuro, l’OMS sostiene che i sistemi di intelligenza artificiale dovrebbero essere progettati con cura per riflettere la diversità dei contesti socioeconomici e sanitari. Fondamentale inoltre che prevedano formazione in competenze digitali, coinvolgimento della comunità e sensibilizzazione, in particolare per milioni di operatori sanitari che richiederanno l’alfabetizzazione digitale o la riqualificazione se i loro ruoli e funzioni sono automatizzati.

Con questo spirito l’OMS ha elencato sei principi per garantire una corretta applicazione dell’intelligenza artificiale in campo sanitario.

  1. Proteggere l’autonomia umana : nel contesto dell’assistenza sanitaria gli esseri umani dovrebbero mantenere il controllo dei sistemi sanitari e delle decisioni mediche; la privacy e la riservatezza dovrebbero essere protette e i pazienti devono fornire un valido consenso informato attraverso adeguati quadri legali per la protezione dei dati.
  2. Promuovere il benessere e la sicurezza delle persone e l’interesse pubblico. Le tecnologie di intelligenza artificiale dovrebbero soddisfare i requisiti normativi di sicurezza, accuratezza ed efficacia per casi d’uso o indicazioni ben definite. 
  3. Garantire trasparenza e intelligibilità. La trasparenza richiede che siano pubblicate informazioni sufficienti prima della progettazione o dell’implementazione di una tecnologia di intelligenza artificiale. Tali informazioni devono essere facilmente accessibili e facilitare una consultazione pubblica e un dibattito significativi su come è progettata la tecnologia e su come dovrebbe o non dovrebbe essere utilizzata.
  4. Promuovere responsabilità e responsabilità. Sebbene le tecnologie di intelligenza artificiale svolgano compiti specifici, è responsabilità delle parti interessate garantire che vengano utilizzate in condizioni appropriate e da persone adeguatamente formate. 
  5. Garantire inclusività ed equità. L’inclusività richiede che l’IA per la salute sia progettata per incoraggiare l’uso e l’accesso più equo possibile.
  6. Promuovere un’intelligenza artificiale reattiva e sostenibile. Gli sviluppatori e gli utenti dovrebbero valutare in modo continuo e trasparente le applicazioni di intelligenza artificiale durante l’uso effettivo per determinare se l’intelligenza artificiale risponde in modo adeguato e appropriato alle aspettative.