17 febbraio 2017

I principi di Asilomar per l'Intelligenza Artificiale

Dal sito del Future of Life Institute
Ho liberamente tradotto i gia' segnalati ventitre principi di Asilomar per lo sviluppo dell'Intelligenza Artificiale (IA). Al momento, piu' di mille scienziati del settore li hanno sottoscritti (nonche' quasi duemila altre persone non attive nel settore). Ecco il sito con il documento e la raccolta di firme https://futureoflife.org/ai-principles/ e la mia traduzione:

L'intelligenza artificiale ha già fornito strumenti utili che vengono utilizzati ogni giorno da persone in tutto il mondo. Il suo continuo sviluppo, guidato dai seguenti principi, offrirà incredibili opportunità per l'umanita' nei decenni e nei secoli a venire.

Problemi di ricerca

1) Obiettivo della ricerca: l'obiettivo della ricerca sull'Intelligenza Artificiale [IA] non dovrebbe essere quello di creare un'intelligenza non-orientata [neutrale, indifferente], ma un'intelligenza benefica.

2) Finanziamento della ricerca: gli investimenti nel settore dovrebbero essere accompagnati da finanziamenti per la ricerca mirata a garantirne l'uso benefico, comprese le questioni spinose in informatica, economia, diritto, etica, e studi sociali, come ad esempio:

  • Come possiamo rendere i futuri sistemi di IA estremamente robusti, in modo che facciano quello che vogliamo, senza malfunzionamenti e senza che siano hackati?
  • Come possiamo far crescere la nostra prosperità attraverso l'automazione, senza marginalizzare gli esseri umani?
  • Come possiamo aggiornare i nostri sistemi giuridici in modo che siano più equi ed efficaci, per tenere il passo con l'IA e per gestirne i rischi?
  • Quale insieme di valori dovranno seguire le IA, e quale stato etico-legale dovranno avere?

3) Rapporto scienza-politica: sara' necessario un livello di interazione sano e costruttivo tra i ricercatori di intelligenza artificiale e la classe politica.

4) Cultura della ricerca: una cultura basata su cooperazione, fiducia e trasparenza dovrebbe essere promossa tra i ricercatori e gli sviluppatori di IA.

5) Evitare la competizione: i gruppi di ricerca dovrebbero cooperare attivamente per evitare di prendere scorciatoie sugli standard di sicurezza.

Etica e Valori

6) Sicurezza: i sistemi di IA devono essere sicuri e protetti per tutta la loro vita operativa - e verificabilmente, quando necessario e fattibile.

7) Mancata trasparenza: se un sistema di intelligenza artificiale provoca danni, dovrebbe essere possibile accertarne il motivo.

8) Trasparenza giudiziaria: qualsiasi coinvolgimento da parte di un sistema di IA giuridico autonomo dovrebbe essere in grado di fornire una spiegazione soddisfacentemente [per le proprie decisioni] verificabile da un'autorità umana competente.

9) Responsabilità: progettisti e costruttori di sistemi avanzati di IA sono parti interessate nelle implicazioni morali del loro uso, abuso ed azioni, con la responsabilità e l'opportunità di plasmare tali implicazioni.

10) Allineamento dei valori: i sistemi di IA autonomi dovrebbe essere progettati in modo che i loro obiettivi e comportamenti possano essere affidabilmente allineati con i nostri valori in tutto il loro funzionamento.

11) Valori Umani: i sistemi di IA devono essere progettati e gestiti in modo di essere compatibili con gli ideali di dignità umana, dei diritti, della libertà e della diversità culturale.

12) Privacy: sara' necessario garantire il diritto di accedere, gestire e controllare i dati generati dagli utenti, dato il potere dei sistemi di IA di analizzare e utilizzare tali dati.

13) Libertà e Privacy: l'applicazione di IA ai dati personali non deve irragionevolmente limitare la libertà delle persone (reale o percepita).

14) Condivisione dei benefici: le tecnologie di IA dovrebbero beneficiare e potenziare il maggior numero di persone possibile.

15) Prosperità condivisa: la prosperità economica creata dall'IA deve essere condivisa, in linea di massima, a beneficio di tutta l'umanità.

16) Controllo umano: gli esseri umani dovrebbero scegliere come e se delegare le decisioni di sistemi di IA, per raggiungere gli obiettivi da loro scelti.

17) Non-eversione: il potere conferito dal controllo dei sistemi di IA altamente avanzati dovrebbe rispettare e migliorare, piuttosto che sovvertire, i processi sociali e civili da cui dipende la salute della società.

18) Corsa agli armamenti: una corsa agli armamenti in armi letali autonome dovrebbe essere evitata.

Problemi a lungo termine

19) Capacità: non essendoci un consenso, dovremmo evitare di supporre quali possano essere i limiti superiori delle future capacità dell'IA.

20) Importanza: l'arrivo delle IA avanzate potrebbero rappresentare un cambiamento profondo nella storia della vita sulla Terra, e dovrebbe essere pianificata e gestita con l'attenzione e le risorse necessarie.

21) Rischi: i rischi associati ai sistemi di IA, in particolare i rischi catastrofici o esistenziali, devono essere oggetto di pianificazione e mitigazione commisurati con il loro potenziale impatto.

22) Auto-miglioramento ricorsivo: i sistemi di IA progettati per auto-migliorarsi ricorsivamente o auto-replicarsi in un maniera tale da portare ad un rapido aumento della loro qualità o quantità, devono essere soggetti a severe misure di sicurezza e di controllo.

23) Bene Comune: la Superintelligenza dovrebbe essere sviluppata solo al servizio di ideali etici ampiamente condivisi e per il beneficio di tutta l'umanità, piuttosto che di un singolo Stato o organizzazione.

Nessun commento: