{"id":5662,"date":"2022-03-16T18:01:05","date_gmt":"2022-03-16T17:01:05","guid":{"rendered":"https:\/\/sgsolutionsrl.it\/testato-un-sistema-di-tele-esistenza-su-icub\/"},"modified":"2022-03-16T18:01:05","modified_gmt":"2022-03-16T17:01:05","slug":"testato-un-sistema-di-tele-esistenza-su-icub","status":"publish","type":"post","link":"https:\/\/falatech.it\/en\/testato-un-sistema-di-tele-esistenza-su-icub\/","title":{"rendered":"Testato un sistema di &#8220;tele-esistenza&#8221; su iCub"},"content":{"rendered":"<div>Ricordate iCub, il robot-bambino messo a punto dall&#8217;Istituto Italiano di Tecnologia? Nel frattempo \u00e8 arrivato alla sua terza versione e i suoi &#8220;pap\u00e0&#8221; hanno pensato di testarlo per la prima volta come avatar fisico di un essere umano, mettendo alla prova il controllo virtuale a distanza delle sue capacit\u00e0: muoversi nello spazio, manipolare oggetti, percepire stimoli e interagire verbalmente e fisicamente con le persone e l&#8217;ambiente.<br \/>\nL&#8217;esperimento \u00e8 stato condotto qualche mese fa dal team di ricercatori e ricercatrici del laboratorio Artificial and Mechanical Intelligence coordinato da Daniele Pucci dell&#8217;Istituto Italiano di Tecnologia, in collaborazione con il Padiglione Italia &#8220;Comunit\u00e0 Resilienti&#8221; alla 17. Mostra Internazionale di Architettura &#8211; La Biennale di Venezia (22 maggio \u2013 21 novembre 2021), promosso dalla Direzione Generale Creativit\u00e0 Contemporanea del Ministero della Cultura e curato dall&#8217;Architetto Alessandro Melis.. &#8230;ma &#8220;vedo&#8221; a venezia. Con questo sistema, l&#8217;operatore pu\u00f2 anche &#8220;vedere&#8221; ci\u00f2 che il robot sta vedendo a centinaia di chilometri di distanza. Gli occhi di iCub 3, infatti, sono in realt\u00e0 telecamere che trasmettono le immagini al visore dell&#8217;operatore. Il quale, grazie a un sistema di microfoni, pu\u00f2 anche &#8220;ascoltare&#8221; ci\u00f2 che il robot sta ascoltando. Questo consente di creare una piena comunicazione verbale tra il robot e le persone che incontra.<br \/>\nL&#8217;utente, infine, indossa anche guanti sensorizzati che tracciano i movimenti della mano e gli consentono di controllare le dita del robot e di manipolare in modo accurato glioggetti a distanza.<br \/>\nL&#8217;esperimento della tele-esistenza, condotto a Venezia, fa parte del programma del team coordinato da Daniele Pucci che punta a sviluppare in futuro robot umanoidi che possano essere avatar degli esseri umani, consentendo per esempio di lavorare da remoto in luoghi pericolosi per la salute umana o inaccessibili, ma anche di abilitare al lavoro o dare nuove prospettive di presenza a distanza a persone con disabilit\u00e0.<br \/>\n. La tele-esistenza. Durante l&#8217;esperimento iCub 3 ha visitato gli spazi del Padiglione Italia a Venezia, eseguendo i comandi impartiti da un operatore che si trovava a Genova, consentendo a quest&#8217;ultimo di essere &#8220;trasportato&#8221; immersivamente in un&#8217;altra realt\u00e0 senza muoversi dal laboratorio. Ci\u00f2 \u00e8 stato possibile grazie al sistema di tele-esistenza sviluppato da IIT, che permette di mettere in collegamento (con un ritardo di comunicazione di circa 25 millisecondi e utilizzando una comune fibra ottica) l&#8217;utente a Genova con il robot a Venezia.<br \/>\nPer un controllo accurato del robot, l&#8217;operatore ha indossato una tuta sensorizzata \u2013 ideata e realizzata da IIT nell&#8217;ambito del progetto europeo AnDy e applicata con INAIL all&#8217;interno del progetto ergoCub. La tuta si chiama &#8220;iFeel&#8221; e ha due funzioni: tracciare i movimenti dell&#8217;operatore per trasmetterli al robot, e contemporaneamente fornire il &#8220;feedback aptico&#8221;, cio\u00e8 le sensazioni di tipo tattile, all&#8217;operatore che la indossa, affinch\u00e9 possa sentire quando e dove il robot viene toccato.<br \/>\nCammino a genova&#8230; Nella sede IIT di Genova l&#8217;operatore camminava sul posto, all&#8217;interno di una piattaforma di realt\u00e0 virtuale, che rilevava la direzione e la velocit\u00e0 della camminata, nella quale era in grado di muovere liberamente la parte inferiore (gambe e piedi) e superiore del corpo (braccia e mani). Tutti questi movimenti venivano dunque &#8220;catturati&#8221; dalla tuta iFeel e tradotti in input che successivamente erano inviati al robot iCub che, a Venezia, li riproduceva.<br \/>\nMa il &#8220;controllo del movimento&#8221;, non ha riguardato solo gambe e braccia. L&#8217;operatore, infatti, indossava un visore che tracciava la sua mimica facciale e i movimenti della testa, che venivano anch&#8217;essi trasferiti all&#8217;avatar e riprodotti con precisione: per esempio quando l&#8217;operatore annuiva anche il robot annuiva, quando l&#8217;operatore chiudeva gli occhi o muoveva le sopracciglia, il robot faceva altrettanto, aiutandosi anche con l&#8217;accensione di led che arricchiscono la comunicazione tramite le espressioni del viso, trasmettendo la sensazione di stupore, felicit\u00e0, tristezza&#8230; e migliorando l&#8217;interazione con gli esseri umani.\u00a0.<\/div>","protected":false},"excerpt":{"rendered":"<p>Ricordate iCub, il robot-bambino messo a punto dall&#8217;Istituto Italiano di Tecnologia? Nel frattempo \u00e8 arrivato alla sua terza versione e i suoi &#8220;pap\u00e0&#8221; hanno pensato di testarlo per la prima volta come avatar fisico di un essere umano, mettendo alla prova il controllo virtuale a distanza delle sue capacit\u00e0: muoversi [&hellip;]<\/p>","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[51],"tags":[59,58,60],"yst_prominent_words":[],"class_list":["post-5662","post","type-post","status-publish","format-standard","hentry","category-tecnologia","tag-sg-solution","tag-tecnologia","tag-web"],"jetpack_featured_media_url":"","_links":{"self":[{"href":"https:\/\/falatech.it\/en\/wp-json\/wp\/v2\/posts\/5662","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/falatech.it\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/falatech.it\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/falatech.it\/en\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/falatech.it\/en\/wp-json\/wp\/v2\/comments?post=5662"}],"version-history":[{"count":0,"href":"https:\/\/falatech.it\/en\/wp-json\/wp\/v2\/posts\/5662\/revisions"}],"wp:attachment":[{"href":"https:\/\/falatech.it\/en\/wp-json\/wp\/v2\/media?parent=5662"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/falatech.it\/en\/wp-json\/wp\/v2\/categories?post=5662"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/falatech.it\/en\/wp-json\/wp\/v2\/tags?post=5662"},{"taxonomy":"yst_prominent_words","embeddable":true,"href":"https:\/\/falatech.it\/en\/wp-json\/wp\/v2\/yst_prominent_words?post=5662"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}