Errore del riconoscimento facciale: quando l’algoritmo accusa la persona sbagliata

Una donna del Tennessee resta mesi in carcere dopo un errore del riconoscimento facciale. Il caso riaccende il dibattito sull’affidabilità dell’AI

Redazione
Donna innocente vittima di riconoscimento facciale sbagliato dalla polizia USA

Il dibattito sull’uso del riconoscimento facciale nelle indagini di polizia torna al centro dell’attenzione negli Stati Uniti dopo un nuovo caso di arresto ingiusto. Angela Lipps, nonna del Tennessee di 50 anni, ha trascorso mesi dietro le sbarre dopo essere stata identificata erroneamente da un software di riconoscimento facciale utilizzato dalla polizia di Fargo, nel North Dakota.

La donna era stata accusata di essere coinvolta in una serie di frodi bancarie, ma in realtà non si era mai recata nello Stato in cui sarebbero avvenuti i reati. Il suo caso rappresenta almeno il nono episodio documentato negli Stati Uniti in cui una persona è stata arrestata a causa di una misidentificazione generata da sistemi di riconoscimento facciale.

Come funziona il riconoscimento facciale nelle indagini

Il riconoscimento facciale è diventato uno strumento sempre più diffuso nelle indagini delle forze dell’ordine. Gli investigatori analizzano immagini provenienti da telecamere di sorveglianza e le confrontano con grandi database di fotografie, nel tentativo di individuare possibili corrispondenze tra il volto ripreso e quello di una persona identificabile.

Nel caso di Fargo, la polizia stava indagando su diversi episodi di frode bancaria avvenuti tra aprile e maggio dello scorso anno. Secondo gli investigatori, una donna aveva utilizzato un falso documento dell’esercito statunitense per prelevare decine di migliaia di dollari. Le immagini delle telecamere di sicurezza sono state quindi analizzate con un software di riconoscimento facciale che ha indicato Angela Lipps come possibile corrispondenza.

A quel punto un detective ha confrontato la patente di guida del Tennessee della donna e alcune immagini trovate sui social media con il volto della sospettata. Sulla base di caratteristiche come lineamenti, corporatura e capelli, gli investigatori hanno concluso che fosse lei la responsabile.

Riconoscimento facciale sbagliato e danni reali

La realtà era completamente diversa. Angela Lipps non era mai stata nel North Dakota e, al momento dei presunti reati, si trovava a oltre 1.200 miglia di distanza, nel Tennessee. Nonostante ciò, il 14 luglio gli U.S. Marshals l’hanno arrestata sotto la minaccia delle armi mentre stava facendo da babysitter a quattro bambini.

La donna è rimasta 108 giorni in un carcere della contea del Tennessee prima che gli agenti del North Dakota andassero a prenderla. Il suo avvocato, Jay Greenwood, ha chiesto immediatamente i registri bancari della cliente. Quando la polizia ha finalmente incontrato l’avvocato e la stessa Lipps il 19 dicembre, quasi cinque mesi dopo l’arresto, i documenti hanno dimostrato che la donna stava effettuando operazioni quotidiane nel Tennessee, tra cui acquisti e depositi di assegni della Social Security.

Il caso è stato archiviato la vigilia di Natale. Tuttavia, nel frattempo la donna aveva perso la casa, l’auto e persino il cane, oltre a ritrovarsi senza soldi né mezzi per tornare a casa.

Polizia e intelligenza artificiale: scelte rischiose

L’episodio non rappresenta un caso isolato. Un’indagine del Washington Post pubblicata a gennaio 2025 ha individuato almeno otto casi di arresti ingiusti negli Stati Uniti in cui il punto di partenza dell’indagine era proprio un possibile match ottenuto tramite riconoscimento facciale.

Secondo l’inchiesta, in tutti questi episodi gli investigatori avrebbero saltato passaggi fondamentali dell’indagine, come la verifica degli alibi o il confronto accurato delle descrizioni fisiche, controlli che avrebbero potuto scagionare i sospettati prima dell’arresto.

I limiti tecnici del riconoscimento facciale

Persino le aziende che sviluppano questi strumenti mettono in guardia le autorità sul loro utilizzo. Alcuni fornitori di tecnologia, tra cui Clearview AI, specificano esplicitamente che i risultati dei sistemi di riconoscimento facciale “sono indicativi e non definitivi” e che le forze dell’ordine devono effettuare ulteriori verifiche prima di prendere decisioni operative.

Secondo una segnalazione presentata dall’ACLU nell’aprile 2024 alla U.S. Commission on Civil Rights, in almeno cinque dei sette casi di arresto ingiusto analizzati la polizia aveva ricevuto avvisi chiari sul fatto che un match del software non costituisce una prova sufficiente per procedere all’arresto.

Possibili soluzioni per un uso responsabile dell’AI

Il problema ha iniziato a produrre anche conseguenze sul piano legale. Robert Williams, arrestato ingiustamente a Detroit nel 2020 dopo un falso positivo del riconoscimento facciale, ha raggiunto nel giugno 2024 un accordo storico con la città.

L’intesa prevede che un match ottenuto tramite questi sistemi non possa più essere utilizzato per richiedere un mandato di arresto senza prove indipendenti di conferma. Tuttavia, la regolamentazione resta ancora limitata: all’inizio del 2025 solo 15 Stati americani avevano approvato leggi specifiche sull’uso del riconoscimento facciale da parte della polizia, e il North Dakota non è tra questi.

Come ridurre il rischio di errori

Il caso di Angela Lipps evidenzia quindi una questione sempre più discussa: l’uso di strumenti di intelligenza artificiale nelle indagini richiede controlli investigativi rigorosi e verifiche indipendenti prima di trasformare un sospetto algoritmico in un arresto.

Senza procedure chiare e una legislazione più diffusa, il rischio è che i sistemi di riconoscimento facciale continuino a essere utilizzati come prova principale nelle indagini, con conseguenze potenzialmente devastanti per cittadini completamente innocenti.

Fonte: Tom’s Hardware

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.