20 luglio 2016

Possiamo controllare l'Intelligenza Artificiale? Nick Bostrom sul Financial Times

Nick Bostrom
Il futuro e' certamente arrivato se il Financial Times dedica un articolo alle teorie di un filosofo transumanista sui rischi dell'intelligenza artificiale...

Qualche passaggio di interesse (traduco liberamente/riassumo/commento):

Comincio con un'azzeccata descrizione dello stile oratorio di Bostrom: parla in una specie di origami verbale, piegando gli angoli del suo ragionamento con precisione, per poi rivelare le sue sorprendenti conclusioni.

Un acronimo da ricordare: HLMI (Human Level Machine Intelligence). Secondo uno sondaggio fra ricercatori del settore, citato da Bostrom nel suo Superintelligence, l'HLMI potrebbe essere raggiunto entro il 2030 (con probabilita' stimata al 10%), entro il 2050 (50%) o entro il 2100 (90%). E una volta raggiunto quel livello, un sistema in grado di automodificarsi potrebbe rapidamente superarlo - e' il concetto sottostante l'idea di singolarita' tecnologica.

Bostrom insiste di non essere contrario allo sviluppo di nuove tecnologie, contrariamente alle occasionali accuse. Non che sorprenda, da queste parti, dato che Bostrom e' uno dei fondatori del transumanesimo moderno (quello nato nei primi anni '90), ma non e' convinto che la trasparenza sia, in questo caso, sempre un bene. Il riferimento e' al concetto di OpenAI (Wikipedia), la ricerca nel settore dell'Intelligenza Artificiale con l'approccio open source. Il rischio, sostiene Bostrom, e' che i sistemi cosi' creati potrebbero non essere utilizzati solo a fin di bene...

Non che Bostrom ignori i potenziali vantaggi della creazione di una I.A. forte e benefica: "Sarebbe come se fosse Natale 365 giorni all'anno". Ma non per questo possiamo ignorare la possibilita' di ricercatori privi di scrupoli i quali potrebbero ignorare le misure di sicurezza per essere i primi a creare un HLMI, per non parlare dei malintenzionati. Non e' un caso, fa notare Bostrom, che nessuno voglia rendere open source il software di droni autonomi e letali.

Per salvare capra e cavoli, pero', c'e' una soluzione: tempo, matematica e talento. Traduzione: dobbiamo cominciare ora, e dobbiamo applicare sufficiente "talento matematico" alla ricerca di una soluzione. Al momento, non e' ancora necessario regolamentare questo settore della ricerca, ma esistono gia' alcune applicazioni di sistemi di IA nei quali l'intervento dei governi potrebbe giocare un ruolo positivo nel guidarne l'evoluzione (autoveicoli autonomi, sorveglianza, data privacy).

Grazie anche ai suoi ripetuti interventi (qui e qui un paio di esempi), il dibattito su questi temi e' ormai pubblico, ma Bostrom e' il primo a dire che dare l'allarme sui pericoli teorici non basta: e' ora di affrontare il problema in pratica. E' proprio quello che Bostrom vuole fare, tramite il Future of Humanity Institute e il Strategic Artificial Intelligence Research Centre, i due gruppi dell'Universita' di Oxford presso i quali lavora.

Fonti:

Nick Bostrom sul Financial Times: Artificial intelligence: can we control it?
Open AI
Il sito di Nick Bostrom

Nessun commento: