Toyota Research Institute (TRI) sta facendo progressi significativi nel campo dell’apprendimento dei robot, presentando un sistema in grado di insegnare ai robot nuove abilità durante la notte. Questa scoperta rappresenta un importante sviluppo, poiché i metodi tradizionali di apprendimento delle macchine richiedono milioni di casi di addestramento, il che non è fattibile in scenari di apprendimento fisico dei robot.

Il sistema sviluppato da TRI combina le tradizionali tecniche di apprendimento dei robot con modelli di diffusione, simili a quelli utilizzati nei modelli di intelligenza artificiale generativa. Con questo metodo, TRI è riuscito ad addestrare con successo i robot su 60 abilità e ancora di più. Tuttavia, i modelli esistenti hanno ancora delle limitazioni. Mentre i grandi modelli linguistici sono stati utilizzati per dotare i robot di intelligenza cognitiva, consentendo loro di comprendere comandi di alto livello, fanno fatica nelle attività specifiche come inserire un dispositivo USB o prendere un fazzoletto.

TRI ha l’obiettivo di colmare questa lacuna sviluppando un sistema in grado di programmare abilità che possono funzionare in ambienti diversi e non strutturati. Questo è fondamentale perché i robot spesso incontrano difficoltà in ambienti meno strutturati. Ad esempio, è più semplice per un robot navigare in un magazzino rispetto a una strada o una casa. TRI si concentra sulla creazione di robot che possono adattarsi ai cambiamenti nel loro ambiente, come spostare mobili o gestire disordini imprevisti.

Il processo di insegnamento per i robot inizia con la teleoperazione, dove un operatore umano controlla il robot a distanza attraverso dimostrazioni. Il sistema raccoglie dati da varie fonti, comprese la vista e il feedback sulla forza, per ottenere una comprensione completa del compito. Il feedback sulla forza è particolarmente cruciale per le attività che richiedono una manipolazione corretta, come tenere un utensile correttamente.

Dopo l’addestramento iniziale, le reti neurali del sistema continuano ad apprendere durante la notte. Questo viene ottenuto attraverso una politica di diffusione, che genera il comportamento del robot rappresentandolo come un processo di diffusione di denoising condizionato. Sono stati osservati risultati promettenti negli esperimenti, con tassi di successo delle attività che coinvolgono il senso del tatto, come girare le frittelle e stendere la pasta, che aumentano significativamente.

In conclusione, i progressi di TRI nell’apprendimento dei robot stanno spingendo i limiti di ciò che i robot possono raggiungere. Insegnando loro nuove abilità durante la notte, i ricercatori ci stanno avvicinando a un futuro in cui i robot possono adattarsi e imparare in scenari del mondo reale.