Robot dotati del “tatto” grazie al computing neuromorfico di Intel

Un passo avanti nella robotica che migliora significativamente le capacità e la funzionalità delle macchine

Il chip di ricerca neuromorfica Loihi di Intel
Il chip di ricerca neuromorfica Loihi di Intel

Il lavoro svolto da due ricercatori della National University of Singapore (Nus), membri della Intel Neuromorphic Research Community (Inrc), apre la strada a una nuova frontiera della robotica: la possibilità di far sperimentare sensazioni tattili alle macchine.
Lo fanno attraverso una pelle artificiale di loro invenzione, che è in grado di percepire stimoli tattili con una velocità più di 1.000 volte superiore rispetto al sistema nervoso umano, oltre che di identificare forma, consistenza e durezza di un oggetto 10 volte più rapidamente di un battito di ciglia.

«Questa ricerca della National University of Singapore ci offre un interessante sguardo nel futuro della robotica, dove le informazioni sono sia percepite sia elaborate sulla base degli eventi combinando molteplici modalità. Questo lavoro porta nuova evidenza di come il calcolo neuromorfico consenta di ottenere notevoli miglioramenti in termini di latenza e di consumi energetici, quando si riprogetta l’intero sistema secondo un paradigma basato sugli eventi che comprende sensori, formati dei dati, algoritmi e architettura dell’hardware», spiega Mike Davies, Direttore, Intel Neuromorphic Computing Lab.







Alla base del lavoro c’è il chip di ricerca neuromorfica Loihi di Intel. Inizialmente i ricercatori hanno utilizzato una mano robotica dotata di pelle artificiale per leggere il Braille, passando i dati di percezione tattile a Loihi attraverso il cloud in modo da convertire i microrilievi percepiti dalla mano in un significato semantico. Loihi ha raggiunto un’accuratezza superiore al 92% nel classificare le lettere Braille, utilizzando al contempo 20 volte meno energia rispetto a un processore Von Neumann standard. Il passo successivo è stato quello di programmare un robot per classificare vari contenitori opachi contenenti diverse quantità di liquido, utilizzando input sensoriali dalla pelle artificiale e una telecamera basata su eventi. Utilizzando gli stessi sensori tattili e di visione, hanno anche testato la capacità del sistema di percepire e identificare lo slittamento rotazionale, importante per una presa stabile.

Una volta acquisiti questi dati sensoriali, il team li ha inviati a una Gpu e al chip di ricerca neuromorfica Loihi per confrontare le capacità di elaborazione. I risultati della ricerca, presentati questa settimana a Robotics: Science and Systems, dimostrano che la combinazione di visione e tatto basati su eventi utilizzando una rete neurale spiking ha consentito una precisione migliore del 10% nella classificazione degli oggetti rispetto a un sistema basato sulla sola visione.

 














Articolo precedenteIbm e Meyer uniscono le forze per diagnosticare le malattie neurologiche dei bambini
Articolo successivoAlessandro Banzato riconfermato presidente di Federacciai






LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui