Nello Utah testano chatbot per prescrivere farmaci psichiatrici

Un chatbot potrà rinnovare farmaci: obiettivo ridurre costi e tempi, ma i medici sollevano dubbi su sicurezza e trasparenza

Redazione
Chatbot farmaci psichiatrici usato in Utah per rinnovare prescrizioni

Chatbot e prescrizioni psichiatriche: in Utah prende forma una sperimentazione che potrebbe ridefinire il rapporto tra tecnologia e sanità. Lo Stato ha infatti autorizzato un sistema di intelligenza artificiale a rinnovare alcune prescrizioni, segnando solo il secondo caso negli Stati Uniti in cui una macchina ottiene un ruolo clinico così delicato. Le autorità puntano su costi più bassi e maggiore accesso alle cure, mentre il mondo medico invita alla cautela.

L’avvio inedito dei chatbot nel rinnovo dei farmaci psichiatrici

L’iniziativa, annunciata nei giorni scorsi, prevede un progetto pilota della durata di un anno guidato dalla startup Legion Health. Il sistema consiste in un chatbot capace di rinnovare alcune prescrizioni psichiatriche già esistenti, ma solo in condizioni molto specifiche.

Il perimetro operativo è volutamente limitato: l’intelligenza artificiale può intervenire esclusivamente su 15 farmaci considerati a basso rischio, tra cui antidepressivi come fluoxetina, sertralina e bupropione, oltre ad altri medicinali utilizzati per ansia e depressione. Non sono invece ammessi nuovi farmaci, né terapie che richiedono monitoraggi clinici più complessi, come esami del sangue.

Anche i pazienti devono rispettare criteri stringenti: possono accedere solo se già in terapia stabile, senza recenti modifiche del trattamento o ricoveri psichiatrici nell’ultimo anno. Inoltre, è obbligatorio un controllo periodico con un medico ogni dieci rinnovi o entro sei mesi.

Obiettivi di efficienza e riduzione dei costi sanitari

Le istituzioni locali vedono nella sperimentazione una possibile risposta a una crisi strutturale: in Utah circa 500.000 persone non hanno accesso adeguato a cure per la salute mentale. Automatizzare i rinnovi delle terapie di mantenimento potrebbe, secondo i promotori, liberare tempo prezioso per i medici, consentendo loro di concentrarsi sui casi più complessi.

Il servizio sarà accessibile tramite abbonamento, con un costo di 19 dollari al mese, e promette “rinnovi rapidi e semplici”. Per utilizzare il sistema, i pazienti dovranno registrarsi, verificare la propria identità e dimostrare di avere già una prescrizione attiva, ad esempio caricando una foto del flacone del farmaco.

Il chatbot raccoglie quindi informazioni su sintomi, effetti collaterali ed efficacia del trattamento, includendo anche domande su ideazione suicidaria, autolesionismo o altre condizioni critiche. In presenza di segnali di rischio, il caso viene automaticamente inoltrato a un medico umano prima di qualsiasi rinnovo.

Criticità e resistenze: trasparenza e sicurezza sotto esame

Nonostante le promesse, molti psichiatri esprimono forti perplessità. Tra i principali timori c’è la scarsa trasparenza dei sistemi di intelligenza artificiale, spesso percepiti come “scatole nere” difficili da valutare dall’esterno.

Secondo alcuni esperti, i benefici potrebbero essere sovrastimati: il servizio è infatti accessibile solo a pazienti già seguiti da uno specialista, escludendo proprio chi ha maggior bisogno di assistenza. Inoltre, il rischio è quello di favorire una prosecuzione automatica delle terapie, senza una revisione critica della loro reale necessità.

Altri sottolineano che la prescrizione psichiatrica non si limita a verificare parametri standard, ma richiede una comprensione profonda del contesto personale del paziente, elemento che un chatbot difficilmente può cogliere.

Chatbot e prescrizioni: benefici limitati e casi esclusi

Il sistema esclude numerose categorie di farmaci e pazienti. Non possono essere gestite sostanze controllate, come molti trattamenti per l’ADHD, né benzodiazepine, antipsicotici o litio, utilizzati in patologie più complesse come schizofrenia e disturbo bipolare.

Questo restringe notevolmente il campo d’azione della sperimentazione, lasciando fuori proprio i casi più delicati. Inoltre, resta il dubbio sulla capacità del chatbot di individuare correttamente eventuali effetti collaterali o segnali di peggioramento, soprattutto considerando che le risposte dei pazienti possono essere incomplete o imprecise.

Gli specialisti evidenziano anche un altro aspetto: durante una visita, un medico valuta non solo ciò che il paziente dice, ma anche ciò che non dice, oltre al comportamento e all’aspetto generale. Elementi difficilmente replicabili da un sistema automatizzato.

Il modello Legion e le ambizioni di espansione

Per limitare i rischi, Legion Health ha introdotto diverse misure di sicurezza. Le prime 1.250 richieste saranno monitorate attentamente da medici umani, mentre successivamente verranno effettuati controlli a campione su una quota compresa tra il 5% e il 10% dei casi.

L’azienda sottolinea che il sistema non si basa su una singola risposta del paziente per autorizzare un rinnovo, ma su un insieme di verifiche e controlli incrociati, con la possibilità di coinvolgere farmacisti e clinici.

Nonostante la cautela, le ambizioni sono ampie: la società ha già indicato l’obiettivo di estendere il servizio a livello nazionale entro il 2026, trasformando questo progetto pilota in un possibile banco di prova per l’uso dell’IA in medicina.

Un equilibrio delicato tra innovazione e pratica clinica

La sperimentazione solleva una domanda fondamentale: quale problema risolve realmente questo sistema? In molti casi, osservano gli esperti, i pazienti già in trattamento possono ottenere rinnovi senza necessità di visita, spesso gratuitamente.

Il rischio, quindi, è che la tecnologia intervenga su un processo già efficiente, senza incidere significativamente sull’accesso alle cure per i pazienti più fragili. Per alcuni psichiatri, almeno nella fase iniziale, la prudenza resta d’obbligo: meglio affidarsi a percorsi terapeutici consolidati e supervisionati direttamente da professionisti.

Fonte: The Verge

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.