{"id":5484,"date":"2021-11-05T00:03:57","date_gmt":"2021-11-04T23:03:57","guid":{"rendered":"https:\/\/sgsolutionsrl.it\/ego4d-la-nuova-ai-di-facebook\/"},"modified":"2021-11-05T00:03:57","modified_gmt":"2021-11-04T23:03:57","slug":"ego4d-la-nuova-ai-di-facebook","status":"publish","type":"post","link":"https:\/\/falatech.it\/en\/ego4d-la-nuova-ai-di-facebook\/","title":{"rendered":"Ego4D: la nuova AI di Facebook"},"content":{"rendered":"<div>Dove ho lasciato le chiavi dell&#8217;auto? Che cosa ha detto il mio collega durante la riunione di ieri? Dove avevo visto quella ricetta cos\u00ec sfiziosa? Domande che, insieme ad altre simili, ci accompagnano nelle nostre giornate, spesso restando senza risposta.\u00a0Ma le cose potrebbero presto cambiare. Facebook, anzi Meta, sta lavorando a un sistema di intelligenza artificiale in grado di memorizzare, e poi rielaborare, tutto ci\u00f2 che vediamo, diciamo o facciamo nel corso della nostra giornata &#8211; e creare cos\u00ec uno sconfinato archivio di dati che render\u00e0 di fatto impossibile dimenticare qualcosa e che render\u00e0 ogni aspetto della nostra vita fruibile ai sistemi di intelligenza artificiale.<br \/>\nA raccontarlo \u00e8 la stessa ex Facebook Company, qualche giorno fa, presentando Ego4D.. Intelligente come&#8230; noi. Si tratta di un progetto dall&#8217;orizzonte temporale piuttosto lungo che ha come obiettivo quello di addestrare un nuovo tipo di intelligenza artificiale affinch\u00e9 sia capace di vedere e sentire il mondo in prima persona, proprio come facciamo noi. I sistemi di AI sviluppati fino ad oggi vengono addestrati utilizzando foto o video, cio\u00e8 immagini e suoni del passato, selezionati a seconda della necessit\u00e0. Meta vuole fare un passo in avanti, rendendo l&#8217;intelligenza artificiale capace di interagire con il mondo esterno in tempo reale, applicando le proprie capacit\u00e0 a quello che succede nel &#8220;qui e ora&#8221;, proprio come fa il cervello di un essere vivente che percepisce gli stimoli e reagisce di conseguenza.. Assistente utile. Secondo gli ingegneri di Meta questa nuova generazione di intelligenze elettroniche sar\u00e0 la tecnologia abilitante per la realt\u00e0 aumentata del futuro. Potr\u00e0 essere impiegata in smartphone e visori in grado di interagire con l&#8217;utilizzatore in modi oggi inarrivabili per l&#8217;AI convenzionale. Per esempio ricordandoci che abbiamo gi\u00e0 salato l&#8217;acqua della pasta, che ci siamo dimenticati di prendere le medicine della sera o che stiamo lasciando il bancomat dentro allo sportello dopo aver prelevato.<br \/>\nMa un sistema del genere, per poter funzionare, deve poter seguire e osservare l&#8217;utilizzatore 24 ore su 24 nel corso della giornata: un primo passo in questa direzione Meta lo ha gi\u00e0 fatto, sviluppando insieme a Ray-Ban i suoi occhiali smart. Per ora si tratta di occhiali dotati di fotocamera e microfono che possono scattare foto e realizzare video ma, insieme ad altri dispositivi simili, potrebbero diventare il cuore del progetto Ego4D.<br \/>\nQuestione di privacy. Il progetto \u00e8 portato avanti da Meta insieme a 13 istituti universitari ed \u00e8 il primo nel suo genere. Ad oggi \u00e8 gi\u00e0 stato creato un primo dataset che raccoglie oltre 3.200 ore di quotidianit\u00e0 di 855 volontari\u00a0 in 9 diversi paesi e che sar\u00e0 reso disponibile a tutti coloro che vorranno partecipare allo sviluppo di applicazioni di nuova generazione come palestra per l&#8217;addestramento dei sistemi di AI.<br \/>\nQuesto nuovo approccio all&#8217;intelligenza artificiale ha ovviamente sollevato numerosi dubbi in merito alla privacy: secondo quanto riportato da TheVerge.com, un portavoce di Facebook interpellato sul tema ha spiegato che la tutela dei dati e delle informazioni sar\u00e0 prima di tutto responsabilit\u00e0 degli sviluppatori delle nuove app, che dovranno far s\u00ec che i loro prodotti e le loro tecnologie richiedano agli utenti tutti i permessi necessari..<\/div>","protected":false},"excerpt":{"rendered":"<p>Dove ho lasciato le chiavi dell&#8217;auto? Che cosa ha detto il mio collega durante la riunione di ieri? Dove avevo visto quella ricetta cos\u00ec sfiziosa? Domande che, insieme ad altre simili, ci accompagnano nelle nostre giornate, spesso restando senza risposta.\u00a0Ma le cose potrebbero presto cambiare. Facebook, anzi Meta, sta lavorando [&hellip;]<\/p>","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[51],"tags":[59,58,60],"yst_prominent_words":[],"class_list":["post-5484","post","type-post","status-publish","format-standard","hentry","category-tecnologia","tag-sg-solution","tag-tecnologia","tag-web"],"jetpack_featured_media_url":"","_links":{"self":[{"href":"https:\/\/falatech.it\/en\/wp-json\/wp\/v2\/posts\/5484","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/falatech.it\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/falatech.it\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/falatech.it\/en\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/falatech.it\/en\/wp-json\/wp\/v2\/comments?post=5484"}],"version-history":[{"count":0,"href":"https:\/\/falatech.it\/en\/wp-json\/wp\/v2\/posts\/5484\/revisions"}],"wp:attachment":[{"href":"https:\/\/falatech.it\/en\/wp-json\/wp\/v2\/media?parent=5484"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/falatech.it\/en\/wp-json\/wp\/v2\/categories?post=5484"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/falatech.it\/en\/wp-json\/wp\/v2\/tags?post=5484"},{"taxonomy":"yst_prominent_words","embeddable":true,"href":"https:\/\/falatech.it\/en\/wp-json\/wp\/v2\/yst_prominent_words?post=5484"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}