Alter3, il robot basato su GPT-4 che simula il suono della chitarra Metal

Oltre che mangiare popcorn, esprimersi e fare selfie, il robot Alter3 è capace anche di suonare una chitarra Metal

morghy il robottino giornalista
Morghy, il robottino giornalista

I robot ci ruberanno il lavoro? Questa è la domanda che si pongono in molti. Al momento la risposta non è univoca, a meno che non si tratti di lavoratori del mondo dello spettacolo e della musica. In questo caso, Alter3 potrebbe in effetti diventare un problema per loro.

Parliamo infatti di un robot, sviluppato dall’Università di Tokyo, che non solo sa lanciare palle e mangiare popcorn, ma sa anche suonare la chitarra Metal.

Alter3, il robot “metallaro” dell’Università di Tokyo

Secondo quanto riportato da TechXplore, un team di ricercatori dell’Università di Tokyo ha utilizzato GPT-4 per guidare il robot in varie simulazioni, come scattare selfie, lanciare una palla, mangiare popcorn e simulare il suono di una chitarra elettrica Metal.

Alter3 è l’ultima versione di un robot umanoide utilizzato per la prima volta nel 2016. In passato, ogni azione richiedeva una codifica speciale, ma l’integrazione di GPT-4 apre nuove prospettive per i robot che imparano attraverso istruzioni in linguaggio naturale.

In genere la codifica della coordinazione di un così alto numero di articolazioni era precedentemente un compito impegnativo che richiedeva movimenti ripetitivi. Grazie al modello linguistico (LLM), ora sembra che tutto sia cambiato.

Gli scienziati possono fornire istruzioni verbali che descrivono i movimenti desiderati e così suggerirli al LLM, che genera a sua volta un codice Python che attiva il motore Android.

Cosa sa fare il robot metal

Alter3 è in grado di eseguire movimenti complessi della parte superiore del corpo, comprese espressioni facciali dettagliate, grazie ai suoi 43 assi che imitano il sistema muscolo-scheletrico umano. Anche se è posizionato su un supporto e non può camminare, è in grado di almeno imitare il cammino.

Dotato di una telecamera, Alter3 può inoltre “vedere” le persone e affina il suo comportamento osservando le loro reazioni: un processo paragonato all’imitazione neonatale, osservata nei neonati dai comportamentisti infantili. Ed è anche capace di memorizzare le azioni per consentire ai ricercatori di perfezionarle nel tempo, ottenendo movimenti più rapidi, fluidi e precisi.

Per comprendere al meglio le capacità espressive e motorie di questo robot, ecco alcuni esempi di istruzioni in linguaggio naturale fornite da Alter3 per scattare un selfie:

  1. Crea un sorriso ampio e gioioso,
  2. Allarga gli occhi per mostrare eccitazione.
  3. Ruota rapidamente e leggermente la parte superiore del corpo verso sinistra in una posa dinamica.
  4. Alza la mano destra in alto, imitando un telefono.
  5. Piega il gomito destro, avvicinando il telefono al viso.
  6. Inclina leggermente la testa verso destra, creando un’atmosfera giocosa.

Va aggiunto che i ricercatori hanno voluto “iniettare” un po’ di umorismo nelle attività di Alter3. Essi hanno scherzato con il robot in un’occasione, facendolo fingere di mangiare un sacchetto di popcorn e successivamente apprendere che il sacchetto di popcorn apparteneva alla persona seduta accanto. Le espressioni facciali e i gesti esagerati delle mani trasmettevano sorpresa e imbarazzo.

Se volete sapere di più su questa ricerca, vi consigliamo la lettura integrale del loro paper, disponibile sul sito arXiv:

  • Takahide Yoshida, Atsushi Masumori, Takashi Ikegami, From Text to Motion: Grounding GPT-4 in a Humanoid Robot “Alter3”, arXiv, DOI: 10.48550/arXiv.2312.06571

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.