12 gennaio 2013

L'Intelligenza Artificiale come fattore positivo e negativo di rischio globale

Segnalo questa recentissima traduzione italiana di un paper del Singularity Institute

 L'Intelligenza Artificiale Come Fattore Positivo e Negativo di Rischio Globale

1. Introduzione

Di gran lunga, il peggior pericolo rappresentato dall'Intelligenza Artificale sta nel fatto che le persone concludono troppo in fretta di capirla. Naturalmente, il problema non è limitato alla sola AI. Jacques Monod scrisse: “Un curioso aspetto della teoria dell'evoluzione consiste nel fatto che tutti credono di capirla” (Monod 1975). Mio padre, un fisico, si lamentava che tutti creassero le proprie teorie della fisica; e si chiedeva perché mai non elaborassero le proprie teorie chimiche (Risposta: elaborano anche quelle). Nondimeno, il problema sembra manifestarsi in forma particolarmente acuta con l'Intelligenza Artificiale. Il campo dell'AI si è fatto una cattiva fama, quanto a fare grandi promesse che poi non è riuscito a mantenere. La maggior parte degli osservatori concludono che l'AI è difficile; e lo è, infatti. Ma l'imbarazzo non nasce dalla difficoltà in sé. È difficile costruire una stella dall'idrogeno, ma il campo dell'astronomia stellare non ha mai perso la faccia promettendo di costruire stelle, e poi fallendo. L'inferenza cruciale non è che l'AI è difficile, ma che per qualche motivo, le persone facilmente concludono di sapere sull'Intelligenza Artificiale molto più di quanto sappiano davvero. L'altro mio capitolo per Rischi Catastrofici Globali, “Come Gli Errori Cognitivi Possono Condizionare La Valutazione Dei Rischi Globali” (Yudkowsky 2008), si apre con l'osservazione che solo poche persone sceglierebbero deliberatamente di distruggere il mondo; quindi è molto più preoccupante uno scenario in cui la Terra viene distrutta per errore . Solo pochi schiaccerebbero un bottone sapendo che farlo distruggerebbe la Terra. Ma se le persone si convincono facilmente che schiaccarlo causi qualcosa di molto diverso, anche questo è causa di allarme. È molto più difficile scrivere sui rischi globali dell'Intelligenza Artificiale che sui bias cognitivi. i bias cognitivi sono scienza acquisita; basta citare la letteratura. L'Intelligenza Artificiale non è scienza acquisita; è scienza di frontiera, non da manuale. E per ragioni che discuterò in seguito, il tema dei rischi catastrofici globali dell'Intelligenza Artificiale non è quasi trattato nella letteratura tecnica esistente. Ho quindi dovuto analizzare il tema dalla mia prospettiva personale, trarre le mie conclusioni, e fare del mio meglio per sostenerle nel limitato spazio concessomi. Non è che mi sia dimenticato di citare i principali lavori esistenti sul tema; è che per quanto ne so, ad oggi (Gennaio 2006) non esistono studi fondamentali principali da citare. Potrebbe essere forte la tentazione di ignorare l'Intelligenza Artificiale poiché, di tutti i rischi globali discussi in questo libro, l'AI è la più difficile da discutere. Non ci sono statistiche attuariali da consultare per assegnare alla catastrofe piccole probabilità annuali, come invece si potrebbe fare per l'impatto degli asteroidi. Non possiamo sfruttare i calcoli di un modello preciso, confermato per escludere determinati eventi o assegnare limiti superiori infinitesimali alla loro probabilità, come è stato proposto per la fisica dei disastri. Ma questo rende il tema dell'AI più preoccupante, non meno. Si è scoperto che molti bias cognitivi aumentano con la pressione temporale, l'informazione sparsa o l'impegno cognitivo. Il che equivale a dire che più la sfida analitica è difficile, più è importante evitare o ridurre i bias. Pertanto raccomando fortemente di leggere “Come Gli Errori Cognitivi Possono Condizionare La Valutazione Dei Rischi Globali” prima di continuare a leggere questo paper.

Leggi tutto, sul sito del Singularity Institute.

Nessun commento: