BrainBody-LLM, il sistema che insegna ai robot a correggersi da soli

Il modello sviluppato alla NYU Tandon combina due LLM in un’unica architettura dinamica con feedback continuo per migliorare l’esecuzione dei compiti

Redazione

Le potenzialità dei large language model stanno raggiungendo nuovi ambiti, spingendosi ben oltre la generazione di testi o la ricerca di informazioni. Tra i settori che stanno beneficiando maggiormente di questi avanzamenti c’è la robotica, dove l’uso di modelli linguistici si sta rivelando cruciale per trasformare istruzioni umane in azioni concrete. In questo scenario nasce BrainBody-LLM, il nuovo algoritmo sviluppato dai ricercatori della NYU Tandon School of Engineering. Un sistema che si ispira al modo in cui il cervello umano pianifica e affina i movimenti.

Come funziona BrainBody-LLM

Come riporta Techxplore, il cuore della novità risiede nella divisione del modello in due componenti complementari: il Brain LLM e il Body LLM. Il primo si occupa di scomporre i compiti in passaggi chiari e gestibili, mentre il secondo genera i comandi necessari affinché il robot possa eseguire ogni singolo step, traducendo la pianificazione astratta in movimento reale.

Secondo Vineet Bhat, co-autore dello studio pubblicato su Advanced Robotics Research, “LLM hanno dimostrato una forte comprensione delle interazioni umane negli ambienti reali”, una capacità che il team ha deciso di mettere alla prova in ambito robotico, concedendo al modello un accesso controllato a un set limitato di comandi di movimento. Questa scelta garantisce sicurezza e sperimentazione in un ambiente controllato, evitando comportamenti imprevisti.

La forza di BrainBody-LLM sta nella sua architettura a ciclo chiuso: un sistema di feedback monitora costantemente l’ambiente e gli eventuali errori, rimandandoli al modello per consentire una correzione automatica e continua. Questo approccio rende il modello più stabile e in grado di affrontare compiti complessi con maggiore resilienza.

I risultati: più precisione e tassi di successo più alti

Il team ha testato BrainBody-LLM sia in simulazione sia in un contesto reale. Nella piattaforma VirtualHome, un robot virtuale ha completato diverse mansioni domestiche seguendo le istruzioni generate dall’algoritmo. Nel mondo reale, invece, la prova è stata condotta utilizzando il braccio robotico Franka Research 3, una delle piattaforme più diffuse nella ricerca accademica.

I risultati sono stati particolarmente incoraggianti: il nuovo approccio ha migliorato del 17% il tasso di completamento dei compiti rispetto ai modelli allo stato dell’arte utilizzati come riferimento. Il braccio robotico ha raggiunto un tasso di successo medio dell’84%, completando la maggior parte dei task assegnati.

Bhat sottolinea come il loro lavoro si inserisca in una tendenza più ampia: “Molti recenti framework agentici basati su LLM adottano principi simili, con catene di modelli che utilizzano strumenti esterni per risolvere problemi complessi”. Il gruppo di ricerca sta ora esplorando l’integrazione di modalità aggiuntive — visione 3D, sensori di profondità, controllo articolare — con l’obiettivo di rendere i movimenti robotici sempre più simili a quelli umani.

Sebbene ancora agli inizi, BrainBody-LLM rappresenta un passo significativo verso sistemi robotici più intelligenti, flessibili e autonomi, capaci non solo di eseguire ordini, ma di capirli e adattarvisi in tempo reale.

Iscriviti alla newsletter

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.