7 giugno 2012

K3loid: quando l'Intelligenza Artificiale si ribella... (video)

Il video qui sopra non solo e' spettacolare, ma dice anche di ispirarsi ad un esperimento condotto dieci anni fa da Elezier Yudkowkski, sostenitore dell'approccio friendly AI all'intelligenza artificiale e co-fondatore del SIAI. L'esperimento, puramente ipotetico, consiste nell'imprigionare un'Intelligenza Artificiale dotata di intelletto superiore a quello umano, in una scatola. L'unica via d'uscita a sua disposizione e' quella di convincere il suo guardiano, un essere umano, a lasciarla andare. Situazioni simili sono state proposte come metodi per sviluppare l'I.A. in modo sicuro, ma Yudkowski sostiene che se fosse sufficientemente intelligente, essa potrebbe semplicemente convincere i propri guardiani che sia nel loro interesse lasciarla andare, il che potrebbe avere conseguenze catastrofiche. Nell'esperimento, Yudkowski ha preso il ruolo dell'I.A. e a sfidato i propri lettori a NON lasciarsi convincere a lasciarlo andare. In due hanno accettato la sfida e entrambi, dopo una conversazione condotta in privato, lo hanno lasciato andare (nessun dettaglio del loro dialogo con Yudkowski e' mai stato rivelato...)

Il risultato di questo mini-esperimento e' una delle ragioni per cui Yudkowski e' convinto che l'unica nostra speranza sia di creare superintelligenze friendly (amichevoli - nei nostri confronti).

Da quanto mi sembra di capire dal video qui sopra, l'I.A. in questione non solo e' sfuggita, ma sembra anche ben poco friendly...

(Il video e' descritto come un trailer, ma non sono riuscito a trovare informazioni di alcun tipo su se e quando sara' seguito da un film)

Nessun commento: