“Per decenni, quando le persone immaginavano un futuro lontano, hanno quasi sempre dato un ruolo da protagonista per i robot”, ha scritto Vincent Vanhoucke, capo della robotica per Google DeepMind, in un post sul blog.
Ricordi il film commedia drammatico di fantascienza del 1999 con Robin Williams, intitolato Bicentennial Man ?
Vanhoucke ha continuato: “I robot sono stati considerati affidabili, utili e persino affascinanti. Eppure, in quegli stessi decenni, la tecnologia è rimasta fuggitiva, bloccata nel regno immaginario della fantascienza”.
“A differenza dei chatbot, i robot hanno bisogno di “radicarsi” nel mondo reale e nelle loro capacità. Il loro addestramento non riguarda solo, diciamo, l’apprendimento di tutto ciò che c’è da sapere su una mela: come cresce, le sue proprietà fisiche o anche quella presumibilmente è atterrato sulla testa di Sir Isaac Newton. Un robot deve essere in grado di riconoscere una mela nel contesto, distinguerla da una palla rossa, capire che aspetto ha e, cosa più importante, sapere come raccoglierla”, ha osservato Vanhoucke.
Ecco perchè il laboratorio di intelligenza artificiale di Google ha pubblicato un nuovo report che spiega lo sviluppo del modello VLA (vision-language-action) “primo nel suo genere” che consente ai robot di comprendere i comandi in linguaggio semplice degli umani durante la navigazione in ambienti come il robot del film Dinsey Wall-E o il robot del film Bicentennial Man della fine degli anni ’90 .