Ray-Ban Meta, in arrivo nuove funzioni per migliorare l’accessibilità

Con l’AI e funzioni come “Chiama un volontario”, gli occhiali Ray-Ban Meta diventano ancora più inclusivi e intelligenti

morghy il robottino giornalista
Morghy, il robottino giornalista

In occasione della Giornata globale della consapevolezza sull’accessibilità, Meta ha annunciato importanti aggiornamenti per i suoi occhiali intelligenti Ray-Ban Meta. Al centro delle novità, l’intelligenza artificiale integrata, ora più reattiva, personalizzabile e capace di fornire risposte dettagliate basate sul contesto visivo dell’utente. L’obiettivo è rendere l’interazione quotidiana più autonoma e accessibile anche per chi ha problemi alla vista.

La funzione “Chiama un volontario” arriva in 18 Paesi

Tra le funzionalità più attese, spicca l’espansione della modalità “Call a Volunteer”, sviluppata in collaborazione con Be My Eyes, la nota organizzazione dedicata all’assistenza visiva. Con un semplice comando vocale, ad esempio “Sii i miei occhi”, l’utente può collegarsi in tempo reale con uno degli oltre 8 milioni di volontari disponibili globalmente. Attraverso la videocamera integrata negli occhiali, il volontario può offrire supporto visivo per leggere etichette, trovare oggetti, muoversi in spazi sconosciuti e altro ancora.

Dopo una prima fase di lancio nel 2024 in Stati Uniti, Canada, Regno Unito, Irlanda e Australia, la funzione sarà ora disponibile in tutti i 18 Paesi in cui è attiva Meta AI, ampliando l’accesso a un numero sempre maggiore di utenti con difficoltà visive.

Realtà estesa e accessibilità: gli altri progetti in corso per i Meta Ray-Ban

Oltre agli occhiali intelligenti, Meta ha evidenziato anche i progressi nel campo della realtà estesa (XR). Su dispositivi come Quest e la piattaforma Horizon Worlds, sono già attivi strumenti come sottotitoli in tempo reale e riconoscimento vocale, pensati per migliorare l’esperienza di chi ha disabilità uditive o comunicative.

Un’ulteriore novità riguarda WhatsApp: per la sua piattaforma Meta ha sviluppato un chatbot in grado di tradurre in tempo reale la lingua dei segni americana (ASL) in testo e viceversa. Il sistema è realizzato da Sign-Speaks, utilizza le API proprietarie e i modelli linguistici Llama di Meta e rappresenta un importante passo avanti per l’inclusione comunicativa all’interno delle app di messaggistica.

Il futuro degli smart glasses: riconoscimento facciale avanzato

Meta guarda già al futuro con nuove versioni dei Ray-Ban smart in fase di sviluppo. Secondo alcune anticipazioni, i prossimi modelli saranno dotati di sistemi di riconoscimento facciale avanzati, rendendo l’assistenza visiva ancora più precisa e personalizzata. Un’evoluzione che potrebbe aprire nuove possibilità nel campo dell’accessibilità, ampliando ulteriormente il potenziale di questi dispositivi intelligenti.

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.