iCub 3, il robot avatar

iCub 3 è il nuovo robot avatar che permette alle persone di essere in due posti diversi nello stesso tempo

Redazione
robot

Benvenuti nel Metaverso, o quasi. Il nuovo mondo virtuale di cui tanto si parla ultimamente, infatti, è sempre più vicino e sono sempre più le aziende e le ricerche svolte per poter realizzare degli avatar perfetti di noi stessi che potranno muoversi nello spazio. Tra le ultime novità vi è il robot avatar iCub3.

Il Robot Avatar

A testare per la prima volta la nuova versione del robot umanoide iCub come avatar fisico di un essere umano è stato il team di ricercatori e ricercatrici del laboratorio Artificial and Mechanical Intelligence coordinato da Daniele Pucci dell’Istituto Italiano di Tecnologia – IIT. Realizzato in collaborazione con il Padiglione Italia “Comunità Resilienti” alla 17° Mostra Internazionale di Architettura – La Biennale di Venezia, l’esperimento è stato un vero successo.

iCub 3 ha infatti visitato gli spazi e ammirato le opere presenti nel Padiglione Italia a Venezia seguendo i comandi che l’operatore gli impartiva da Genova. Come? Semplice, grazie al sistema definito di tele-esistenza sviluppato da IIT. Grazie ad esso, infatti, si può comandare un robot da remoto quasi in tempo reale dato che il ritardo registrato nella comunicazione è di soli 25 millisecondi. Per far si che il controllo sia quanto più accurato possibile però, il teleoperatore deve indossare una tuta sensorizzata ideata e realizzata da IIT nell’ambito del progetto europeo AnDy e applicata con INAIL all’interno del progetto ergoCub. “iFeel”, questo il nome della tuta, ha due obiettivi principali: da una parte tracciare il movimento corporeo dell’operatore e trasmetterlo al robot, dall’altra fornire il feedback aptico – sensazioni di tipo tattile – all’operatore che la indossa in modo che possa percepire quando e dove il robot viene toccato. L’utente nella sede IIT di Genova cammina sul posto all’interno di una piattaforma di realtà virtuale che rileva la direzione e la velocità della camminata e gli permette di muovere liberamente la parte inferiore (gambe e piedi) e superiore del corpo (braccia e mani): la sensoristica indossabile iFeel monitora questi movimenti e li trasferisce all’avatar robotico a Venezia che muove braccia e gambe come l’utente a Genova.

Infine il visore che indossa l’operatore riesce a tracciare anche la mimica facciale e i movimenti della testa così che il robot li possa riprodurre il più fedelmente possibile. Lo stesso visore permette anche all’operatore di far vedere e sentire quello che vede e sente il robot. In ultimo, ma non certo per importanza, il robot può anche conversare utilizzando la stessa voce dell’operatore grazie a dei sistemi di registrazione.

Una tecnologia dunque importante non solo per il Metaverso ma anche per il presente. Il robot, per esempio, può essere il sostituto dell’uomo in luoghi potenzialmente pericolosi per la salute umana o particolarmente inaccessibili, ma può anche aiutare ad abilitare al lavoro o dare nuove prospettive di presenza a distanza a persone con disabilità.

Federico Morgantini Editore

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.