4 febbraio 2011

Letture: La fine dell'Umanita', di Nicholas Agar

Nessuno puo' accusare Nicholas Agar di essere un   bioconservatore o un neoluddista. Il sottotitolo del suo Liberal Eugenics, pubblicato nel 2004, e' "in difesa del potenziamento umano". Eppure, il sottotitolo del suo Humanity's End, pubblicato nel 2010, e' "perche' dovremmo respingere il potenziamento radicale". Cos'e' successo nei sei anni trascorsi fra la pubblicazione dei due libri?

Humanity's End e' strutturato in quattro parti, ognuna incentrata intorno ad un transumanista di fama internazionale e assunto a simbolo di uno degli aspetti del futuro postumano potenzialmente all'orizzonte: Ray Kurzweil ("the technologist"), Aubrey de Grey ("the therapist"), Nick Bostrom ("il filosofo") e James Hughes ("il sociologo"). In esso l'autore si sforza di presentarsi come un moderato nel dibattito sul potenziamento umano: favorevole al potenziamento, generalmente parlando, ma contrario alle sue forme piu' radicali. Agar sostiene il ragionevolissimo punto di vista che "alcune forme di potenziamento umano dovrebbero essere sostenute, mentre molte altre dovrebbero essere respinte". D'accordo, ma tutto sta nel decidere dove sia lo spartiacque... L'autore lo situa fra le forme di potenziamento che conferiscono un limitato incremento delle capacita' umane e quelle che invece conferiscono un incremento che le surclassa.

Vedi anche:
  • un articolo pubblicato sul Journal of Evolution and Technology il novembre scorso, Agar riassume "un paio delle tesi principali" contenute nel suo libro
  • una recensione (critica) di Humanity's End, su JET: Nicholas Agar's Humanity's End, by Jamie Bronstein

3 commenti:

Lorenzo Galoppini ha detto...

Proprio non riesco a capire perchè e in base a cosa dovremmo respingere certe forme di potenziamento umano, che dovrebbe essere sempre una cosa positiva per definizione. A me sa molto di moralismo, sul quale preferisco non fare ulteriori commenti. E neppure capisco perchè definire "ragionevolissimo" il suo punto di vista quando appare piuttosto tutto il contrario.
Bisognerebbe forse leggere il libro per sapere nei dettagli il perchè di tale affermazione, ma l'idea in sè mi pare già un'assurdità priva di logica in partenza, come dire che bisogna rifiutare qualcosa che non potrebbe che farci migliorare e migliorare la nostra vita.

Estropico ha detto...

Agar sembra preoccupato dalla possibile perdita di empatia fra umani e post-umani, ergo la sua opposizione ai potenziamenti che porterebbero a questa divisione.

Per quanto riguarda il "ragionevolissimo", vorrei chiarire la mia posizione. Quanto sopra e' solo uno degli scenari in cui il potenziamento umano richiedera' cautela (e mi sembra ci siano forti paralleli con la questione della Friendly AI).

Uno scenario in cui sarei d'accordo con il respingere un tipo di potenziamento umano potrebbe essere (esempio scemo, giusto per dare l'idea) se qualcuno volesse potenziarsi in modo di essere portatore sano di una versiona, a sua volta potenziata, del virus dell'ebola.

Come qualsiasi altra tecnologia, il potenziamento umano non e' tutto bianco o tutto nero...

Lorenzo Galoppini ha detto...

"...Uno scenario in cui sarei d'accordo con il respingere un tipo di potenziamento umano potrebbe essere (esempio scemo, giusto per dare l'idea) se qualcuno volesse potenziarsi in modo di essere portatore sano di una versiona, a sua volta potenziata, del virus dell'ebola..."

Su esempi di questo tipo siamo perfettamente d'accordo.
Chiaro che qualsiasi tecnologia, per definizione, deve essere finalizzata a migliorare la vita dell'uomo, non certo a peggiorarla.