11 gennaio 2009

Su Estropico: La mente, il cervello e il computer, di Ugo Spezza

Una assunzione comune nella filosofia della mente è quella della indipendenza del substrato fisico. Ossia l'idea è che gli stati mentali possano esistere indipendentemente dal substrato fisico materiale che li genera. Un sistema che implementi il giusto tipo di calcolo delle strutture e dei processi, può essere associato a produrre esperienze coscienti. Non deve essere considerata una proprietà essenziale della coscienza il fatto di dipendere da un organismo biologico in base carbonio con miliardi di sinapsi all'interno di un cranio: un nucleo basato su processori di silicio all'interno di un computer potrebbe, in linea di principio, replicare la stessa funzione.” La frase che avete appena letto è del famoso filosofo e futurologo Nick Bostrom, professore e direttore del Future of Humanity Institute dell’Università di Oxford. Tale frase è contenuta nell’altrettanto famoso scritto “Are you living in a Computer Simulation?” che affronta in modo rigorosamente scientifico (per quelle che sono le conoscenze attuali) la possibilità che dei computer possano emulare la mente umana o addirittura una moltitudine di menti umane ricreando una società virtuale perfettamente integrata, operante e indipendente [...] è davvero possibile che esista una “indipendenza funzionale” tra la parte materiale (l’organo cervello) che produce il fenomeno chiamato “mente” e la mente stessa? O forse la mente è un organo trans-materiale dissociato completamente dal mondo fisico? Su questo argomento i maggiori filosofi mondiali, esperti in quella branca definita “Filosofia della mente”, dibattono aspramente da decenni. Lo scopo di questo scritto è divulgare ed illustrare, quali sono le maggiori teorie prodotte sul funzionamento della mente umana. Leggi tutto, su Estropico.

5 commenti:

Estropico ha detto...

Ottimo articolo! A proposito della "stanza cinese" di John Searle, citata nell'articolo, segnalo che me ne sono occupato sul blog l'anno scorso. Nel preparare quel post ho scoperto che la mia reazione istintiva alle critiche di Searle alla possibilita' di macchine coscienti e' tutt'altro che originale e che e' conosciuta come critica del sistema:

http://estropico.blogspot.com/2007/10/stanze-cinesi-e-intelligenze.html

naqevius ha detto...

Il fatto principale sarà esser certi che la coscienza derivi dall'esistere di un "contenitore" (la mente) che ne attira la presenza.
Spiego meglio possibile come potrebbe funzionare (secondo me): abbiamo dieci buchi e dieci dita.
I buchi sono i cervelli, le dita sono coscienza.
Se noi da quaggiù creassimo un altro buco, praticamente identico a quelli già fatti, la coscienza (che per me è completamente esterna all'essere umano fisico) avrebbe bisogno di un dito in più e ne chiamerebbe un altro.
Così per ogni nuova mente che creiamo, adatta ad accogliere coscienza, questa si manifesterà nell'essere naturalmente.
Ma possiamo creare menti senza prima essere sicuri di dove è la nostra? Potrebbe questa esperienza portarci a scoprire di più su tutto ciò?

agnostico ha detto...

“Are we living in a Computer Simulation?”

Agnosticamente parlando, non importa;
almeno in assenza di una ipotesi specifica che sia anche dotata di valore euristico.

@ naqevius (11/01/09 12.31)
Puoi riscriverlo in maniera più chiara?

naqevius ha detto...

@agnostico(11/01/09 21.35)
Volevo esporre un idea che mi è venuta leggendo l'articolo.
Pensavo che per ogni contenitore di coscienza che viene creato in questa dimensione\mondo\universo\realtà ritenuto (da chi?) adatto allo scopo di contenitore, questa (la coscienza) si manifesta naturalmente senza il bisogno di "trascinarla" qui.
Ma essendo solo un idea volevo buttarla lì e vedere che ne pensate, in fondo c'è bisogno di sapere qualcosa in più riguardo a questi temi per poter procedere tranquilli nella tecnologia riguardante questo campo.
Meglio di così non so spiegarlo. Saluti.

agnostico ha detto...

@ naqevius (12/01/09 10.11)

Ora è più chiaro, grazie.

Se è così ...
a giudicare da noi, non funziona tanto male ... no?