3 dicembre 2015

Nick Bostrom: uno dei 100 intellettuali piu' influenti al mondo

Congratulazioni al "nostro" Nick Bostrom!

Noto, sull'edizione cartacea di Foreign Policy, che e' stato selezionato per il loro numero dedicato ai leading global thinkers dell'anno (se ricordo bene, e' un'onore che ha gia' ricevuto qualche anno fa). Al momento non ne trovo traccia sul sito della rivista, ma l'ultimo numero online e' ancora quello di Settembre/Ottobre.

Per i lettori di passaggio: Nick Bostrom e' uno dei pionieri del transumanesimo moderno, co-fondatore della World Transhumanist Association (ora Humanity+) e, piu' recentemente, direttore del Future of Humanity Institute e dell'Oxford Martin Programme on the Impacts of Future Technology entrambi presso l'Universita' di Oxford.

Bostrom ha pubblicato, quest'anno, il molto discusso Superintelligence (ragione, immagino, della sua inclusione nella lista di Foreign Policy).

Dall'articolo della rivista (traduco liberamente/riassumo):

Il filosofo svedese lancia l'allarme sull'Intelligenza Artificiale, il cui rapido sviluppo potrebbe imporre le proprie preferenze al mondo e divenire un rischio esistenziale per l'Umanita'. Di fronte alla prospettiva di una "esplosione di intelligenza", scrive Bostrom nel suo Superintelligence, "noi umani siamo come bambini che giocano con una bomba." 

L'emergere dell'Intelligenza Artificiale e' visto da Bostrom come "l'evento piu' importante dall'apparizione della specie umana". Il suo gruppo di ricerca multidisciplinare (etica, matematica, economia e altri settori di studio) mira a prevenire il realizzarsi delle piu' pessimistiche previsioni.

Uno dei problemi nel cercare di comprendere la natura di future superintellingenze, e' la tendenza ad antropoformizzarle, cioe' il proiettare caratteristiche tipiche della nostra psiche su di loro. Pensiamo che esse avranno lo stesso complicato sistema emotivo che l'evoluzione ha dato a noi, ma non c'e' ragione di presupporre cio', a meno che tale sistema sia da noi stessi integrato in esse.

Sul tema di come creare una superintelligenza benevole nei nostri confronti, Bostrom offre un esempio: immagina di voler determinare, fra tutte le possibili azioni a tua disposizione, quali avrebbero il miglior impatto sul lungo termine, non solo per te, ma anche per chi ti sta intorno. Dal punto di vista morale, questo e' fondamentale, ma e' anche estremamente difficile da stabilire. In assenza di certezze, possiamo solo brancolare nel buio. Quello che stiamo cercando di fare e' di far luce su questa mappa macro-strategica per capire come meglio impostare una futura Intelligenza Artificiale.

Fino a pochi anni fa, non c'era molta ricerca su questi temi. Oggi, non abbiamo certo tutte le risposte alle nostre domande, ma abbiamo se non altro gettato le basi per questo settore di ricerca accademica.

Su Estropico.org troverete le traduzioni di molti articoli del filosofo transumanista.

Nessun commento: