Benvenuto, Ospite. Effettua il login oppure registrati.

Ragioni Karma per messaggio concreto

Messaggio

Puck

    Diego Armando Maradona
    Post: 91490
  • Karma: 515

Nomè, è fatta, siamo morti :look:

https://www.repubblica.it/cronaca/2021/01/11/news/nei_robot_la_scintilla_dell_empatia-282114541/

Ad alcune persone basta uno sguardo per intendersi e capire cosa l'altro sta per fare. Oggi può accadere anche ai robot. Un semplice esperimento condotto alla Columbia University di New York dimostra che perfino nelle macchine è possibile accendere una scintilla di empatia. La coppia di silicio aveva l'obiettivo di raggiungere delle macchie verdi disposte su un tavolo, simbolo del cibo. "Semplicemente osservando i comportamenti dell'altro, un robot molto semplice ma dotato di intelligenza artificiale è riuscito a prevederne i comportamenti. E' quel che avviene durante molte delle interazioni umane, e fra le macchine si è verificato senza bisogno di fornire alcuna informazione" spiega Cristina Becchio, scienziata dell'Istituto Italiano di Tecnologia di Genova. "E' bastata una telecamera montata sul primo robot e puntata sul secondo".

L'esperimento, pubblicato sulla rivista Scientific Reports, è stato portato a termine dagli ingegneri della Columbia University di New York guidati dall'ingegnere Hod Lipson. E' il primo segnale che anche nei robot potrebbe esistere una teoria della mente, ossia la capacità esclusiva di esseri umani e primati di mettersi nei panni degli altri per anticiparne le azioni. In futuro i robot capaci di prevedere i comportamenti senza bisogno di istruzioni, grazie solo alla loro perspicacia, potrebbero imparare a interagire meglio fra loro e con l'uomo, assistendo persone disabili o cooperando come una squadra, ad esempio in una fabbrica o sul teatro di un disastro.

Nel test della Columbia uno dei due robot (l'osservatore) si trovava in alto e poteva spaziare con lo sguardo su un tavolo dove l'altro robot era libero di muoversi, fatta eccezione per alcuni ostacoli che nascondevano il cibo alla sua vista. Il robot osservatore riusciva a capire quando il suo compagno non aveva la possibilità di scorgere - e quindi di raggiungere - il cibo. In oltre il 98% dei casi ha previsto correttamente i suoi movimenti.

Fino a ieri l'obiettivo della cooperazione fra macchine era stato raggiunto programmandone il comportamento a priori. "I cobot, o robot collaborativi, esistono già e svolgono compiti assai più complessi di quelli descritti nell'esperimento di oggi. Ma hanno la caratteristica di reagire al comportamento altrui, non di prevederlo. In questo modo le interazioni perdono fluidità" spiega Becchio. "Se ogni volta bisogna attendere la reazione della macchina, i tempi si allungano. Tutte le interazioni sociali hanno invece natura predittiva".

Nell'esperimento della Columbia, poi, l'osservatore ha imparato da solo, semplicemente osservando le difficoltà del suo compagno per circa due ore, senza bisogno di parole, simboli o altri tipi di istruzioni. "Anche quando una macchina sviluppa abilità molto complesse, come quella di battere un umano agli scacchi, ha bisogno che le vengano impartite le regole iniziali" prosegue Becchio. "L'esperimento di oggi dimostra invece che osservare può essere sufficiente per prevedere i comportamenti altrui". Apprendere per immagini o capirsi solo con lo sguardo potrebbero essere facoltà sottovalutate anche negli umani? "Forse. A volte capita che l'intelligenza artificiale ci sveli degli aspetti caratteristici anche di quella naturale. Chi ci dice che i bambini non imparino anche così?".

Nella sua semplicità, l'esperimento della Columbia indica dunque che anche i robot sono in grado di mettersi nei panni degli altri, considerare le informazioni in loro possesso e anticiparne i comportamenti futuri: uno dei requisiti della cosiddetta "teoria della mente", caratteristica di esseri umani e primati. Dotarne le macchine è uno degli obiettivi attuali delle ricerche sull'intelligenza artificiale. "L'abilità di cui parliamo è quella di rappresentarsi gli stati interni altrui: di sapere cioè quel che un'altra persona vede, sente e desidera. Quando raggiungiamo questo obiettivo, siamo in grado di prevedere ciò che l'altro sta per fare" prosegue Becchio.

La teoria della mente e la capacità di mettersi nei panni degli altri, fa notare lo studio americano, metterebbero i robot non solo nella posizione di capire noi umani, ma anche in quella di raccontare bugie e ingannare. "La teoria della mente è un fattore essenziale - si legge nell'articolo - per le interazioni sociali più complesse, come cooperazione, competizione, empatia e imbroglio". La collaborazione è l'altra faccia della competizione. "E' vero, una volta che so rappresentarmi uno stato mentale altrui, posso agire in modo empatico o manipolarlo in modo machiavellico" spiega Becchio. "Oggi un'intelligenza artificiale riesce a prendere l'immagine di una persona che si trova per strada con il piede alzato e a fargli completare il passo. Un robot capace di prevedere i comportamenti, saprà anche ricostruirne il percorso futuro". I falsi video generati come deep fake potrebbero diventare ancora più sofisticati. "Se gioco una partita di basket, ho bisogno di osservare la palla e i giocatori per anticiparne le azioni. Questo sia che faccia parte della squadra all'attacco, sia che voglia contrastarla da avversario".
Cambiato Cambia Ragione Data
SimplePortal 2.3.7 © 2008-2024, SimplePortal