Un team di ricercatori guidato dall’Università di Heriot-Watt e da Edinburgh Napier University sta sviluppando i cosiddetti “hearing glasses”, occhiali in grado di rivoluzionare l’esperienza sonora di chi soffre di perdita dell’udito. Il progetto, parte del programma COG-MHEAR finanziato dal Engineering and Physical Sciences Research Council (EPSRC), unisce lip-reading, intelligenza artificiale e cloud computing per offrire un supporto tecnologico avanzato capace di andare oltre i limiti dei tradizionali apparecchi acustici.
Come funzionano gli occhiali con AI che leggono le labbra
L’idea è tanto semplice quanto innovativa: un piccolo sistema di telecamere integrato negli occhiali cattura i movimenti delle labbra di chi parla, mentre un’app per smartphone sfrutta la rete 5G per inviare i dati audio e video a un potente server cloud. Qui, algoritmi di intelligenza artificiale isolano la voce del parlante dai rumori circostanti e la rimandano in tempo reale all’auricolare o all’apparecchio acustico dell’utente.
“Non stiamo cercando di reinventare gli apparecchi acustici, ma di dar loro dei superpoteri”, ha spiegato la professoressa Mathini Sellathurai di Heriot-Watt, che guida il filone di ricerca basato su 5G e cloud. Grazie a questa tecnologia, chiamata audio-visual speech enhancement, anche in contesti complessi con voci sovrapposte l’AI è in grado di selezionare la voce della persona che l’utente sta guardando, sfruttando la stretta correlazione tra movimenti labiali e parlato.
Oggi esistono già sistemi di cancellazione del rumore, ma mostrano grandi limiti in ambienti affollati. L’approccio proposto promette invece di superare queste difficoltà, abbattendo le barriere che penalizzano soprattutto bambini e anziani che necessitano di un supporto affidabile e accessibile.
Dalla sperimentazione alla vita quotidiana
Secondo il Royal National Institute for Deaf People, oltre 1,2 milioni di adulti nel Regno Unito hanno una perdita dell’udito così grave da rendere complicata la conversazione. Gli apparecchi tradizionali, limitati da dimensioni ridotte e capacità di calcolo, faticano a gestire il rumore di fondo in luoghi come bar, stazioni o uffici.
Per risolvere questo problema, i ricercatori hanno deciso di spostare l’elaborazione più pesante nei server cloud, anche a grande distanza come quelli di Stoccolma. “C’è un leggero ritardo, visto che il suono viaggia fino alla Svezia e ritorna”, ha chiarito Sellathurai, “ma con il 5G è sufficientemente rapido da sembrare istantaneo”. Parallelamente, il gruppo lavora anche su soluzioni di intelligenza artificiale edge, per garantire maggiore sostenibilità e ridurre i tempi di risposta.
La prospettiva è che questa tecnologia non si limiti solo alle persone con deficit uditivi: potrebbe rivelarsi utile in contesti lavorativi ad alta rumorosità, come le piattaforme petrolifere o i reparti ospedalieri. Il team collabora con i produttori di apparecchi acustici per renderla accessibile su larga scala e sta raccogliendo campioni di rumore quotidiano — dal traffico alle lavatrici — per addestrare ulteriormente l’algoritmo.
In futuro, il modello cloud potrebbe persino diventare un servizio pubblico, accessibile a chiunque disponga di un dispositivo compatibile.