15 settembre 2011

Tre scenari per il Futuro

Dopo qualche mese di stasi appare un nuovo articolo di aggiornamento su Futurology.it. Riprendendo i testi degli studiosi di Intelligenza Artificiale avanzata Eliezer Yudkowsky, Hans Moravec e Nick Bostrom nonché alcuni dei più recenti testi pubblicati sul sito del Singularity Institute, ho cercato di tracciare la linea evolutiva degli studi sulla Intelligenza Artificiale, sia essa ristretta che avanzata e del rapporto che tale sviluppo potrà avere sulla nostra società.

Si tratta ovviamente di un articolo divulgativo, senza particolari tecnicismi, e che spero apra delle riflessioni su questo scottante tema, quasi del tutto ignorato nel panorama italiano.

Ho diviso strategicamente gli scenari in tre vie principali di sviluppo, la prima assolutamente positiva che ci porterebbe verso il Paradiso tecnologico, la seconda verso l'Archeofuturismo mentre la terza è quella che ci vede schiacciati da I.A. abominio. Scenario che ovviamente tutti noi ci auguriamo non debba mai vedere la luce.

Ho infine discusso di intersecazione di scenari dato che potrebbe verificarsi una dissezione temporale tra essi oppure una evoluzione incontrollata e oltremodo rapida di uno di essi verso uno scenario parallelo. Il suddetto articolo è a questo link, invito a commentare quanto scritto, sia da un punto di vista di approvazione, sia di critica nonché ad aggiungere nuove idee che si ritiene siano carenti nel testo. Per commentare si può usare il pulsante [Lascia Commento] o contattare l'autore tramite e-mail.

4 commenti:

Estropico ha detto...

Bell'articolo, Ugo, grazie della segnalazione. Carini i mini-scenari alternativi, in fondo! Una sola critica, se mi permetti. Immagino non ti sorprendera' piu' di tanto che sia diretta verso la sezione intitolata "Archeofuturismo"... Temo che chi legga quella parte del tuo articolo possa avere l'impressione che l'omonima opera di Faye sia una specie di avvertimento alle generazioni di oggi, teso ad evitare l'arrivo di un futuro da incubo. La mia impressione invece e' che Faye ritenga quel futuro, che noi due troviamo repellente, non solo inevitabile, ma anche desiderabile! Il che rende per me ancora piu' incomprensibile come possano, alcuni "transumanisti" italiani, essere tanto affascinati dalla sua opera.

Qui un mio articolo sul tema:
Perchè non possiamo dirci archeofuturisti
http://estropico.org/index.php?option=com_content&view=article&id=102:-perche-non-possiamo-dirci-archeofuturisti&catid=46:varie&Itemid=85

Ciao,
Fabio

Ugo Spezza ha detto...

Mi aspettavo una qualche reazione negativa nella parte che riguarda l'archofuturismo. E' vero, Faye quel tipo di futuro non solo non lo teme ma lo auspica. Tuttavia gli va almeno riconosciuto che da degli avvertimenti sul come cercare di evitare la crisi finale prendendo per tempo la cura. La sua "cura", che prevede una deriva autoritaria, non è condivisibile eticamente e nel mio testo esiste questo richiamo. Tuttavia, anche se non condivisibile nelle metodologie applicative, è pur sempre una "cura". Il problema è che la deriva autoritaria potrebbe verificarsi se si verificano le condizioni dello scenario; ovvero quelle di una diffusione incontrollata di armamenti avanzati cibernetici e nanotech.

Non per altro ho parlato di "deriva archeofuturista" nell'incrocio degli scenari. Il punto essenziale del testo è comunque, se non lo si fosse capito, quello di segnalare la "urgenza" di una creazione di Friendly AI o di un mind upload di una mente umana per evitare gli scenari conseguenti le cui conseguenze non sarebbero molto positive per l'umanità rispetto a un mondo C-Fe, ovvero rispetto a quello in cui vedremmo realizzata una perfetta simbiosi tecnologica uomo-macchina.

David ha detto...

Come sempre un'eccellente articolo divulgativo che riesce anche a far riflettere.

IA specializzata e IA avanzata: paradossalmente sono più preoccupato della prima perchè può finire in mani di militari e/o terroristi e utilizzata per scopi malevoli. Mentre per la seconda (la superintelligenza) sarò un'ottimista ingenuo ma la penso come A. Clarke:

"L'idea popolare, promulgata dai fumetti e dalle forme più economiche di fantascienza, che macchine intelligenti devo evolvere verso entità malevole ed ostili all'uomo, è talmente assurda che non vale neanche la pena di sprecare tempo per contestarla. Sono quasi tentato di affermare che solo macchine non-intelligenti pos- sano essere aggressive. . . Coloro che immaginano macchine come nemici aggressivi stanno semplicemente proiettando la propria aggressività. Maggiore è il livello d'intelligenza e maggiore sarà il livello di cooperazione. Se dovessimo arrivare ad una guerra tra uomini e macchine, è facile intuire quale parte la inizierà".

Il rischio catastrofico poi, anche se c'è, credo sarà ridotto dal fatto che l'uomo stesso si ibriderà/integrerà a queste superintelligenze tramite potenziamenti e mind-uploading. D'altronde una grande intelligenza, non può aver sviluppato in misura maggiore solo il lato logico, deve aver sviluppato anche il lato empatico (se pretende di definirsi una intelligenza autocosciente). Un mio amico ha detto che: "l'intelligenza che temono i visionari di macchine cattive, non è intelligenza ma grande capacità senza intelletto" e mi trovo del tutto concorde.

Sono scettico negli approcci top-down che cercano di programmare un'IA forte in modo friendly, se l'IA è davvero un'essere autocosciente e intelligente metterà in discussione queste regole per cui era programmata dai suoi artefici anche se non credo che ciò la porterà a diventare ostile. Anzi, la sua etica emergerà "dal basso", dalle sue conoscenze superiori, e sarà un'etica migliore di quella che hanno prodotto molti esseri umani finora. Le "quattro leggi", potrebbero valere per l'IA debole, ma non per quella forte che necessariamente avrà un'architettura mentale diversa.

Non so dire (per ignoranza nell'aspetto tecnico) se l'IA forte sorgerà dal mind-upload o da creazione artefatta, ma comunque prenderà vita concordo senz'altro con l'articolo che l'empatia è caratteristica fondamentale per un'IA forte e benevola.

Sui benefici dell'IA forte che potrebbe, in pochi anni, far avanzare le nostre conoscenze, fornirci energia pulita, risolvere i problemi delle malattie e dell'invecchiamento, etc. io credo che non dobbiamo avere questa visione di "Messia" che arriva e risolve tutto. Se lo scenario che ho avanzato prima dell'ibridazione tra IA e Uomo è credibile (oltre che auspicabile) allora è probabile che sarà l'intelligenza collettiva (e non un’unica e singola intelligenza per quanto potente) che emergerà con l'ibridazione tra entità intelligenti artificiali e umani potenziati o uploadati che potrebbe farci progredire a livelli inediti.

[continua]

David ha detto...

Sullo scenario archeofuturista: Faye sostiene non senza ragione che "l'attuale civiltà non può durare" e in effetti troppi segnali ci dicono che il mondo econimco-sociale-politico, che finora si è fondato su certi paradigmi che ormai sono obsoleti, sta per collassare. Tuttavia l'autore francese non è certo il primo e nemmeno l'ultimo ha lanciare questo avvertimento. Quello su cui c'è da rabbrividire è appunto la "cura" che propone. Se la sua analisi dell’implosione della civiltà è sostanzialmente giusta, la "pars construens" è decisamente allucinante e lasciatemelo dire, profondamente arretrata (non pre-moderna ma proprio arretrata dall'aria ammuffita!).

"I progressi della tecnoscienza, soprattutto nel campo della biologia e dell'informatica, non si possono più gestire con i valori e le mentalità umaniste moderne", vero mio caro Faye! Ma non è puntando sull'autoritarismo e sull'ordine delle caste (lui rifiuta: "la filosofia obsoleta del progresso") che si propone un paradimga in grado di guidare in modo ottimale e senza traumi la fase di transizione epocale che sta vivendo l'umanità.

Le tecnologie hanno un grande impatto democratizzante (il ruolo di internet nella varie rivolte sociali recenti lo dimostra) e vanno nella direzione esattamente contraria a quella che prevede o auspica Faye. Anche se è sempre possibile che qualcuno utilizzi le tecnologie per un nuovo ordine neo-feudale, d'altronde *siamo noi i responsabili che la tecnologia, -evolvendo -vada verso il bene invece che verso il male*, questo scenario di assoggettamento violento della massa da parte di super-uomini non può durare molto (anche se in quel periodo breve può produrre catastrofi sociali) e l'unico modo per contrastarlo è avere una visione diversa ispirata ai principi etici e scientifici.

Infine: penso che lo scenario citato di Hugo de Garis sia quello più interessante e realistico, ma potrebbe anche non realizzarsi se i Cosmist seguiranno una sorta di "Prima Direttiva" e se i Terrans si limiteranno a vivere nelle loro nicchie ecologiche timorosi di perdere una guerra con esseri superiori a loro. Tuttavia questo scenario (da terza guerra mondiale) è quello su cui, credo, dovremmo vigilare di più per evitare che si formino due fronti e due specie che si contrastino. Chi rifuta la tecnologia potrebbe benissimo usare la stessa tecnologia per porre fine alla civiltà come la conosciamo (l'esempio dell'attentatore di oslo è illuminante). Ma se sapremo affermare un nuovo modello sociale che sia rispettoso anche di chi non sceglie l'opzione di potenziamento, allora forse potremo evitare questa caduta nell'abisso, d’altronde IL MODO MIGLIORE PER PREVEDERE IL FUTURO E' INVENTARLO.