Un’équipe di ricercatori della Royal Melbourne Institute of Technology (RMIT) ha realizzato un chip neuromorfico capace di replicare il comportamento dei neuroni umani, introducendo una vera e propria rivoluzione nella progettazione di robot e veicoli autonomi.
Dalla luce al pensiero: il chip che simula la mente per i robot
Al centro della ricerca c’è un materiale ultrasottile: il disolfuro di molibdeno (MoS₂), in grado di reagire alla luce e resettarsi con una velocità sorprendente, proprio come fanno le cellule del cervello umano.
Il dispositivo non richiede alcun supporto informatico esterno: è progettato per percepire i movimenti, elaborare segnali visivi e conservarli sotto forma di “memorie” interne, unendo in un solo sistema sensore e processore.
Il funzionamento del nuovo dispositivo si ispira al modello leaky integrate-and-fire (LIF), tipico dei neuroni biologici. In pratica, il segnale elettrico si accumula fino a superare una soglia critica: a quel punto viene emesso un impulso, seguito da un reset automatico del sistema. Questo meccanismo riproduce con estrema fedeltà il ciclo naturale della comunicazione neurale.
Grazie alla struttura atomica del MoS₂, il chip può gestire questi segnali con tempi e modalità simili a quelli di un cervello umano. Il materiale, infatti, risponde con efficacia alla luce visibile e può essere prodotto su scala tramite deposizione chimica da vapore, una tecnica industriale già nota ma qui sfruttata con nuove finalità.
Prestazioni promettenti in laboratorio e applicazioni concrete
Nei test di laboratorio, il dispositivo ha mostrato risultati impressionanti. Integrato in una rete neurale a impulsi (spiking neural network, o SNN), ha raggiunto il 75% di accuratezza nell’analisi di immagini statiche con soli 15 cicli di addestramento, e l’80% su dati dinamici dopo 60 cicli.
Una delle dimostrazioni più significative ha visto il chip rilevare il movimento di una mano attraverso una tecnica di edge detection, senza bisogno di registrare ogni fotogramma: questo comporta un’enorme riduzione di consumo energetico e quantità di dati elaborati. Secondo il professor Sumeet Walia, responsabile del progetto, si tratta della prima volta in cui vista e pensiero vengono replicati insieme in un unico dispositivo, con una latenza minima e un’efficienza energetica elevata.
Il team di ricerca, guidato anche dal dottorando Thiha Aung, sta ora lavorando all’estensione della tecnologia su matrici pixelari più ampie, per arrivare a costruire occhi artificiali destinati a robot umanoidi, veicoli autonomi e sistemi di assistenza personale.
Tra gli obiettivi futuri c’è anche l’espansione della risposta del dispositivo alla luce infrarossa, aprendo nuove prospettive per applicazioni in ambienti scarsamente illuminati o per il monitoraggio ambientale intelligente.
L’intero progetto è stato descritto in dettaglio nella rivista Advanced Materials Technologies.