20 ottobre 2009

Quando i computer diventeranno più intelligenti di noi? Di Nick Bostrom

Tramite il sempre interessante Beyond Human, ecco la traduzione dell'intervento di Nick Bostrom sullo speciale della rivista Forbes intitolato "Rapporto IA: passato, presente e futuro dell'intelligenza artificiale" (David ne aveva gia' parlato qui).

Nick Bostrom è uno dei principali filosofi ed esponenti del Transumanesimo, direttore del Future of Humanity Institute alla Oxford University, e futurologo di fama internazionale.

L'intelligenza è un grosso problema. L'umanità deve la sua posizione dominante sulla Terra non a una speciale forza dei propri muscoli, né a una affilatezza inusuale dei propri denti, ma all’ingegnosità unica del proprio cervello. E’ il nostro cervello che è responsabile della complessa organizzazione sociale e dell'accumulo del progresso tecnico, economico e scientifico che, nel bene e nel male, avvolgono la civiltà moderna.

Tutte le nostre invenzioni tecnologiche, le idee filosofiche e le teorie scientifiche sono passate attraverso il canale originario dell'intelletto umano. Ma si può dire che il potere del cervello umano è il principale fattore limitante per lo sviluppo della civiltà umana.

A differenza della velocità della luce o della massa dell'elettrone, il potere del cervello umano non è eternamente una costante fissa. Il cervello può essere migliorato. E, in linea di principio, le macchine possono essere fatte per elaborare le informazioni in modo più efficiente dei - o in modo più efficiente rispetto ai - sistemi nervosi biologici.

Ci sono percorsi molteplici per una maggiore intelligenza. Con il termine "intelligenza", mi riferisco qui a quell’insieme di capacità cognitive, includendo non solo conoscenza, ma anche creatività, intuizione sociale, saggezza e così via.

Ci sono mezzi tradizionali per potenziare l'intelligenza, come l'educazione, e mezzi più recenti come la biotecnologia. Forse la cosa più intelligente e più saggia che la specie umana potrebbe fare sarebbe quella di lavorare per rendere se stessa più intelligente e saggia. Nel lungo periodo, tuttavia, il cervello umano biologico potrebbe cessare di essere il nesso predominante dell’intelligenza terrena.

Le macchine hanno diversi vantaggi: in primis, ovviamente, una maggiore velocità di elaborazione. Un neurone artificiale è in grado di operare un milione di volte più veloce rispetto alla sua controparte biologica. Macchine intelligenti possono anche avere architetture di calcolo e algoritmi di apprendimento superiori. Questi vantaggi "qualitativi", sebbene più difficili da prevedere, possono essere ancora più importanti rispetto a vantaggi come potenza di elaborazione e capacità di memoria. Inoltre, le intelligenze artificiali possono essere facilmente copiate, e ogni nuova copia può - a differenza degli esseri umani – iniziare subito una vita adulta e dotarsi di tutte le conoscenze accumulate dai suoi predecessori. Alla luce di queste considerazioni, è possibile che un giorno potremmo essere in grado di creare una "superintelligenza", cioè una intelligenza generale, che supera di gran lunga i migliori cervelli umani in tutti i campi cognitivi significativi.

Lo spettro di approcci nella creazione dell’intelligenza artificiale (generale) annovera tecniche completamente artificiali, come quelli utilizzate nella buona vecchia IA, ad architetture più strettamente modellate sul cervello umano. Il punto estremo nell’imitazione biologica è l’emulazione totale del cervello, o anche detta "uploading". Questo approccio comporterebbe la creazione di una dettagliata mappa tridimensionale di un cervello reale - mostrando neuroni, interconnessioni di sinapsi e altri dettagli pertinenti – con la scansione di parti di esso e con la generazione della relativa immagine utilizzando il software del computer. Usando modelli computazionali di come gli elementi di base funzionano, l'intero cervello potrebbe quindi essere emulato su un computer sufficientemente capiente.

Il successo finale degli approcci ispirati alla biologia sembra più certo, in quanto essi possono fare progressi partendo da una reverse-engineering (ingegneria inversa) pezzo per pezzo di quel sistema fisico già noto per essere capace di intelligenza generale: il cervello. Tuttavia, qualche altro approccio artificiale o ibrido potrebbe arrivare presto.

E’ difficile prevedere quanto tempo ci vorrà per sviluppare un’intelligenza artificiale generale di livello umano. La prospettiva non sembra imminente. Se ci vorranno un paio di decenni, molti decenni o secoli, non è probabilmente qualcosa che siamo attualmente in grado di sapere. Dobbiamo riconoscere questa situazione di incertezza assegnando un certo grado significativo di credenziali a ciascuna di queste possibilità.

Per quanto lungo sia il tempo necessario per riuscire ad arrivare grossolanamente a una macchina intelligente di livello umano, il passo da lì a una superintelligenza è probabilmente molto più veloce. In un tipo di scenario, l'ipotesi della Singolarità, una macchina intelligente (un “seme di IA") sufficientemente avanzata e facilmente modificabile può arrivare ad applicare il suo ingegno per creare una versione più intelligente di se stessa. Questa versione più intelligente usa la sua intelligenza superiore per migliorarsi ulteriormente. Il processo è iterativo, e ogni ciclo è più veloce rispetto al suo predecessore. Il risultato è un'esplosione di intelligenza. Entro un certo periodo di tempo molto breve - settimane, ore – una superintelligenza radicale è stata raggiunta.

Sarebbe di importanza fondamentale se la transizione dal livello umano a una superintelligenza fosse improvvisa e singolare o più graduale e multipolare. La Superintelligenza sarebbe l'ultima invenzione che l’uomo biologico avrebbe bisogno di fare, poiché, per definizione, essa sarebbe molto meglio nel produrre invenzioni rispetto a noi. Tutti i tipi di tecnologie teoricamente possibili potrebbero essere sviluppate rapidamente dalla superintelligenza - fabbricazione molecolare avanzata, nanotecnologia medica, tecnologie di potenziamento umano, uploading, armi di ogni genere, realtà virtuale realistica, sonde robotiche auto-replicanti per la colonizzazione dello spazio, e altro ancora. Sarebbe efficace anche nella creazione, persuasione e manipolazione di piani e strategie lavorando su problemi filosofici.

E’ una questione aperta se le conseguenze sarebbero per il meglio o per il peggio. Il vantaggio potenziale è chiaramente enorme, ma il lato negativo comprende il rischio esistenziale. Il futuro dell'uomo potrebbe un giorno dipendere dalle condizioni iniziali che abbiamo creato - in particolare, se siamo riusciti a progettare il sistema dell’IA (ad esempio, l'architettura degli scopi e delle intenzioni dell’IA) in modo tale da renderlo "human-friendly" (amichevole), nella migliore interpretazione possibile di tale termine.

Leggi l'articolo originale in inglese su Forbes.com

Nessun commento: