I robot hanno bisogno di conoscere la ragione per cui compiono un lavoro e se le condizioni in cui operano siano in sicurezza per loro stessi e per gli esseri umani con cui interagiscono. In altre parole, anche le macchine devono comprendere il senso di quello che stanno facendo e non eseguire ciecamente comandi e operazioni. Secondo uno studio pubblicato su "Nature Machine Intelligence" e che ha conquistato la copertina della rivista, frutto della collaborazione tra l’Università di Birmingham, l’Istituto di BioRobotica della Scuola Superiore Sant’Anna, l’Università di Pisa, l’ARC Centre of Excellence for Robotic Vision (Queensland University of Technology di Brisbane) e il German Aerospace Center (DLR), questa necessità potrebbe portare a un profondo cambiamento nel mondo della robotica. Come sostiene infatti Valerio Ortenzi, ricercatore dell’Università di Birmingham e prima firma del paper, il cambiamento nel pensiero di un robot sarà obbligato e investirà vari settori, come quello dell’automazione e dell’industria 4.0, o come quello dell’interazione uomo-robot in ambienti domestici.
Lo studio esplora la questione della presa degli oggetti da parte di un robot. Afferrare un oggetto in natura è un’azione perfezionata molti anni fa, ma che rappresenta un’avanguardia robotica. La maggior parte delle macchine utilizzate finora in fabbrica lavora in maniera automatica, raccogliendo oggetti in luoghi e tempi prestabiliti. Per garantire che ciò avvenga, anche in ambienti non strutturati e in interazione con gli esseri umani, è necessaria l’interazione di più tecnologie complesse che includono sistemi di visione e Intelligenza Artificiale in grado di far vedere alla macchina l’oggetto e determinarne la proprietà (è un oggetto rigido o flessibile) e la forza di presa.
Lo studio evidenzia un problema, anche quando il procedimento appena descritto avviene correttamente: ciò che per il robot può essere considerato come un’azione di successo, potrebbe invece rivelarsi un fallimento nella vita reale o nell’interazione con un essere umano.
I ricercatori riportano alcuni esempi, ispirati a robot che lavorano a fianco di essere umani. “Immaginate di chiedere a un robot di passarvi un cacciavite in un laboratorio – spiega Valerio Ortenzi – i codici in possesso del robot lo spingeranno a impugnare il manico e passarvi il cacciavite dalla parte sbagliata, compiendo un ‘passaggio di consegne’ pericoloso. Il robot invece ha bisogno di sapere quale è l’obiettivo finale di un’azione, al fine di ripensare la sua attività e di adattarla al contesto.”
“Pensate anche a un robot in una casa di cura che passa un bicchiere d’acqua a un anziano – continua Marco Controzzi, ricercatore dell’Istituto di BioRobotica della Scuola Superiore Sant’Anna e responsabile scientifico del Human-Robot Interaction Lab – Il robot non deve solo impedire che il bicchiere caschi o che si versi l’acqua, ma capire a chi passerà il bicchiere per favorire il passaggio dell’oggetto”. “In altre parole – prosegue Francesca Cini, PhD student dell’Istituto di BioRobotica - quello che è ovvio per un essere umano deve essere programmato in un robot e questo implica un approccio totalmente diverso.”
“Le metriche tradizionali utilizzate dai ricercatori negli ultimi venti anni per valutare la manipolazione robotica – conclude Matteo Bianchi, ricercatore del Centro Piaggio e del dipartimento di Ingegneria dell’informazione dell’Università di Pisa (nella foto in basso, durante un'intervista televisiva) - non sono sufficienti. I robot hanno bisogno di una nuova filosofia.”