Un’innovazione per filtrare il caos: si potrebbe descrivere così l’ultimo prodigio messo a punto da un gruppo di ricercatori dell’Università di Washington, ovvero un paio di cuffie che, attraverso la tecnologia delle “bolle sonore”, permettono a chi le indossa di ascoltare il proprio interlocutore anche in ambienti rumorosi.
La tecnologia dietro le bolle sonore
Particolarità del prototipo di cuffie sviluppato dal team dell’Università di Washington, queste “bolle sonore”, programmabili con un raggio di 90-180 cm, permettono di sentire le voci in maniera udibile, e al tempo stesso di ridurre i suoni esterni di circa 49 decibel, l’equivalente della differenza tra il rumore di un aspirapolvere e il fruscio delle foglie.
Tutto ciò è stato reso possibile grazie a un algoritmo di intelligenza artificiale che elabora in tempo reale i suoni percepiti da sei microfoni posizionati su un paio di cuffie commerciali modificate. Questo sistema è in grado di tracciare il momento esatto in cui i diversi suoni raggiungono ciascun microfono, distinguendo così tra quelli interni ed esterni alla bolla. In questo modo, i suoni all’interno vengono amplificati leggermente, mentre quelli esterni vengono attenuati.
“La nostra AI è capace di apprendere le distanze delle fonti sonore in una stanza e di processarle in tempo reale, in soli 8 millisecondi”, spiega Shyam Gollakota, professore alla Paul G. Allen School of Computer Science & Engineering dell’Università di Washington.
Per creare un sistema così sofisticato, il team ha dovuto raccogliere un dataset basato sulle distanze sonore in ambienti reali, che il team è riuscito a creare attraverso una testa manichino montata su una piattaforma robotica, che ruotava mentre un altoparlante emetteva suoni a diverse distanze. Grazie a questa soluzione, il team ha così simulato scenari reali in 22 ambienti interni, come uffici e spazi abitativi, così da addestrare al meglio l’algoritmo.
Vantaggi rispetto alle tecnologie esistenti
Sebbene alcune cuffie sul mercato, come AirPods Pro 2, possano amplificare le voci davanti all’ascoltatore e ridurre i rumori di fondo, queste tecnologie si basano sul tracciamento della posizione della testa e sull’amplificazione di suoni provenienti da una direzione specifica. Ciò le rende meno efficaci nel gestire più interlocutori o nel filtrare suoni molto forti provenienti da altre direzioni.
Invece, la soluzione sviluppata dall’Università di Washington supera queste limitazioni, concentrandosi sulla distanza delle fonti sonore e non sulla direzione.
Ad oggi, il sistema è ottimizzato per ambienti interni, ma il team sta lavorando per adattarlo a contesti esterni e per integrarlo in apparecchi acustici e auricolari a cancellazione di rumore. Nel frattempo, i piani per commercializzare il progetto sono già in corso, con la creazione di una startup dedicata.
Il team ha pubblicato i risultati del suo studio nella rivista scientifica Nature Electronics.