6 febbraio 2015

Le grida d'allarme sull'Intelligenza Artificiale non hanno fondamenta e potrebbero scoraggiare gli investimenti nella ricerca

Mi sono occupato spesso, di recente, delle grida d'allarme sull'Intelligenza Artificiale (IA) lanciati da Hawking, Musk e Bostrom e spesso ripresi dalla grande stampa, grida d'allarme culminate nella gia' segnalata Lettera aperta sui rischi dell'IA.

Oggi, invece, mi occupo delle reazioni che tale dibattito ha sollevato fra i ricercatori attivi nel settore della IA.

ComputerWorld ha mandato una giornalista alla conferenza di settore AAAI15, appena conclusasi in Texas, dove ha riscontrato molto scetticismo.

John Bresina, della Intelligent Systems Division (parte dell'Ames Research Center della NASA), si e' dichiarato sorpreso delle dichiarazioni: "Siamo in controllo di quanto programmiamo", ha detto. "Non mi preoccupo dei pericolo dell'IA... Non penso siano vicini. Non possiamo (ancora) programmare qualcosa che impara come un bambino."

Oren Etzioni, dell'Allen Institute for AI ha dichiarato che "Quelli che si preoccupano pensano molto in avanti".

Secondo me, Etzioni ha messo il dito nella piaga. Da una parte abbiamo un settore in rapida crescita e quindi affamato di finanziamenti, che vede le grida d'allarme come premature e come una minaccia al proprio presente (un settore che, fra l'altro, non dimentica di avere gia' vissuto fasi difficili in passato). Dall'altra abbiamo quelli che "hanno visto il futuro", i visionari, i futurologi che scrutano l'orizzonte lontano e loro inquietudini sul futuro dell'IA.

L'obiettivo delle cassandre (?!) e' di spingere la ricerca verso lo sviluppo di sistemi di IA che non ci distruggano o danneggino (consapevolmente o meno) una volta raggiunta la condizione di superintelligenze (superintelligence). L'obiettivo di chi e' nelle trincee della ricerca e' molto piu' limitato. Non si parla di superintelligenze, o neanche di IA con livelli di intelligenza generali simili a quelli umani (come ben illustrato dalla dichiarazione di Bresina, piu' sopra). E si noti che ne' Hawking, ne' Musk, ne' Bostrom sono attivi in questo campo.

Un certo attrito fra i due fronti e' inevitabile e persino salutare...

Fa piacere notare, comunque, che anche alla conferenza in questione si e' parlato di etica dell'IA e dei potenziali pericoli connessi alla creazione di sistemi (veramente) intelligenti. A dimostrazione che questo e' un tema di cui sentiremo parlare sempre piu' spesso, la giornalista di ComputerWorld cita poi l'iniziativa della Stanford University mirata ad esplorare l'impatto dell'IA sull'economia e sulla vita di tutti i giorni nei prossimi 20, 50 o 100 anni: One Hundred Year Study on Artificial Intelligence (AI100)


L'articolo di ComputerWorld: Scientists say AI fears unfounded, could hinder tech advances. Recent alarms over artificial intelligence research raise eyebrows at AI conference

Nessun commento: