Viviamo in una simulazione? La coscienza artificiale

Pubblicato da Alessandra Caraffa il

di Alessandra Caraffa

Nel 2003 Nick Bostrom, professore di filosofia a Oxford e direttore del Future of Humanity Institute, pubblica “Are you living in a Computer simulation?” (Philosophical Quarterly, 2003, Vol. 53, No. 211, pp. 243‐255).

Bostrom sostiene che almeno una delle seguenti proposizioni sia vera:

  1. si può presumere che la specie umana si estingua prima di raggiungere un livello di evoluzione “postumano”;
  2. è molto improbabile che tutte le civilizzazioni postumane creino e mettano in funzione un numero importante di simulazioni del loro processo evolutivo (o variazioni dello stesso);
  3. viviamo quasi certamente in una simulazione creata da un computer.

Ne consegue che:

la convinzione che sia probabile che un giorno saremo postumani e che creeremo simulazioni dei nostri antenati è falsa, a meno che non viviamo noi stessi in una simulazione. 

La cosiddetta Simulation Hypothesis non nasce col trilemma di Bostrom: basti pensare al mito della caverna di Platone (La Repubblica, VII) o alle evoluzioni plotiniane del platonismo: chiunque abbia una formazione filosofica di base saprà dove cercare ulteriori riferimenti alla quasi-eterna disamina tra vero e reale.

Il lavoro di Bostrom, accessibile integralmente e gratuitamente su nickbostrom.com, ha però il pregio di aver individuato  i fondamenti teorici della Simulation Hypothesis in maniera scientifica. Ed ha il merito, più interessante ai nostri scopi, di aver per primo associato la possibilità di una coscienza inorganica, matematica ed artificiale a solidi argomenti teorici, afferenti appunto alla Simulation Hypothesis. 

In pratica, partendo dai postulati della Simulation Hypothesis potremmo inferire che è possibile – in uno stadio postumano di evoluzione, seguendo la teoria di Bostrom – creare menti coscienti all’interno di computer.

Allo stadio attuale dello sviluppo tecnologico, non abbiamo sufficiente potenza di calcolo né un software in grado di creare menti coscienti all’interno dei computer. Esistono però argomentazioni convincenti in favore dell’ipotesi che se il progresso tecnologico continuerà implacabile allora anche questa limitazione sarà superata. […] Un simulatore postumano avrebbe sufficiente capacità di calcolo per tenere traccia di ogni singolo belief-state* di ogni cervello in ogni momento della sua esistenza. Perciò, nel momento in cui il simulatore vedesse un umano indagare il mondo microscopico, potrebbe inserire sufficienti dettagli nel dominio appropriato della simulazione ed in base alle necessità. 

Se fossimo in una simulazione generata da un computer di concezione postumana, potremmo sviluppare la microbiologia tanto quanto i programmi spaziali. La macchina predisporrebbe per noi – di fronte alla nostra osservazione ed in virtù di essa** – un set di immagini coerenti e sufficientemente dettagliato da essere, per noi, reale.  

Un codice alla base del nostro mondo?

Durante l’Isaac Asimov Memorial Debate del 2016 James Gates, fisico teorico dell’Università del Maryland, ha svelato al grande pubblico della divulgazione scientifica una scoperta piuttosto sconcertante: egli sostiene di aver individuato, mentre studiava le equazioni della supersimmetria, gli stessi codici di correzione degli errori che utilizzano i browser che utilizziamo quotidianamente per navigare sul web. 

Nel contesto matematico delle equazioni legate alla supersimmetria, abbiamo scoperto che esiste una struttura matematica che è indistinguibile dai codici di autocorrezione, nella identica forma in cui esistono nella trasmissione di informazioni digitali. (discorso alla New York Academy of Science, 10 Ottobre 2018)

In pratica, in fondo alle leggi matematiche che regolano il mondo per come attualmente lo conosciamo c’è del codice. Ad oggi, si tratta della più impressionante prova in favore della ipotesi della simulazione, sebbene Gates non intenda sposarla totalmente in forza di ragioni etiche.

George Hotz, hacker noto per i jailbreaking pubblici di iPhone e Playstation 3, ha recentemente fondato una sorta di culto votato al jailbreaking della simulazione in cui viviamo

È piuttosto semplice, secondo Hotz, immaginare una cosa sufficientemente più intelligente di noi da aver costruito una gabbia che non sappiamo percepire. Si crede quindi che esista una singolarità, un single point of failure, che una volta riconosciuta consentirà alla chiesa di Hotz di hackerare il sistema-mondo – e liberare l’umanità dall’arbitrio del super cervello che ci ha intrappolati nella sua simulazione. 

Lasciando dunque il jailbreaking assoluto alle dinamiche cultuali imbastite dall’hacker trentenne, potremmo postulare con Gates la presenza di una struttura matematica – inattingibile ovvero identica a determinati codici in uso – a sostrato del mondo che conosciamo.

Simulation Hypothesis e AI

La questione è però un’altra: è logico, e coerente con un senso comune informato dei fatti di cui sopra, che se l’universo è una simulazione allora le nostre stesse coscienze sono il prodotto di un qualche sviluppatore, di una super-intelligenza assai simile al concetto umano di dio.

Lo sviluppatore, il programmatore, dio, il giocatore che ha avviato la simulazione dei propri antenati, ha necessariamente inserito nella simulazione sia i codici che ne costituiscono le leggi matematiche e di sviluppo, sia il sistema di variabili che conosciamo come coscienza.

La super-intelligenza sarebbe di certo in grado di creare una coscienza – ed un’autocoscienza rilfessiva per come la si intende da Descartes in poi – per ognuno degli agenti presenti nel sistema complesso della simulazione. 

Superintelligenza è anche il titolo dell’ultima nota pubblicazione di Bostrom: un testo diventato un must per gli imprenditori coinvolti nello sviluppo di AI, teso ad informare sui pericoli insiti nello sviluppo delle Intelligenze Artificiali.

Se lo scopo dell’attuale ricerca sull’Intelligenza Artificiale è quello di costruire delle macchine fornite di un’intelligenza generale paragonabile a quella umana, infatti, questa porterà in breve tempo all’origine di superintelligenze che risulteranno rapidamente inarrivabili per la nostra intelligenza. 

Famoso, in proposito, il paradosso del “massimizzatore di graffette”, un esperimento mentale proposto per la prima volta da Bostrom in un paper del 2003. Una volta postulata la tendenza, propria di ogni macchina sufficientemente intelligente, a perseguire autoconservazione e accumulazione di risorse per continuare a svolgere il compito per  cui è stata programmata, è facile intuire quanto distruttiva potrebbe essere l’azione di una semplicissima macchina per massimizzare la produzione di graffette. Sarebbe potenzialmente in grado di distruggere il mondo, pur di continuare a costruire graffette.  

Bostrom – insieme a Bill Gates, Elon Musk ed altre personalità coinvolte nel dibattito sull’AI – è oggi uno dei massimi sostenitori della necessità di controllare in maniera stringente lo sviluppo delle AI, in maniera da non rischiare che diventino una minaccia per la vita umana. 

Potremmo concludere dunque che la Simulation Hypothesis, giudicata apertamente come la più probabile giustificazione delle leggi fisiche che governano il nostro Universo dalla comunità scientifica dei fisici teorici, in qualche misura prova la possibilità di una coscienza inorganica. 

Questa coscienza va però distinta nettamente dai costrutti assiologici che regolano la nostra visione della coscienza. Semmai le AI diventassero una minaccia per noi, non sarebbe per malvagità – robot ed intelligenze artificiali non possono infatti conoscere la nostra malvagità – quanto per consistenza interna al codice da cui originano i propri belief-states.

Le macchine (diverse da noi, ndr) non hanno ancora sviluppato un sistema di valori, per quanto ne sappiamo. Ma anche nel caso in cui lo facessero, quante probabilità ci sono che la loro “etica” sia intellegibile con le categorie che utilizziamo per giudicare la nostra? 

E ancora: l’etica umana è mai stata compatibile con la cosiddetta convergenza strumentale, ovverosia con il perseguimento naturale di autoconservazione ed accumulazione delle risorse necessarie a perseguire lo scopo per cui siamo stati programmati? 

Se anche ci fosse dato di conoscere il fine ultimo per cui siamo stati programmati, con buona pace di Kant e dell’umanismo pre-esistenzialistico, resterebbe arduo dimostrare che accumulo di risorse, o capitale, e perseguimento della specie siano tra essi compatibili. 

La nostra etica, individuale e di specie, è un’eccezione nel novero delle coscienze sviluppate dagli agenti del sistema. Non soltanto perché è stata capace di individuare dei singoli point of failure della schermata – dalle costanti della fisica teorica all’insieme di Mandelbrot – ma anche poiché, per quanto si può giudicare dai fatti più recenti della sua evoluzione, probabilmente è l’unica realmente incompatibile con una simulazione che non conosce malvagità.

* Con belief-state si intende, in campo IT e negli studi legati allo sviluppo delle Intelligenze Artificiali, il novero delle convinzioni che ogni agente sviluppa in merito al proprio stato corrente, ovvero la distribuzione delle probabilità di ogni variabile all’interno dello stato. Ref. Bayesian Agent Adaptation in Complex Dynamic Systems (Mair Allen-Williams, Nicholas R. Jennings, 2018)

** La fisica quantistica ha scoperto già agli inizi del Novecento che la materia è una vibrazione: la materia è pura percezione, ma non esiste. Tutti conosciamo gli esperimenti per cui un fotone si comporta diversamente se osservato. Il loro esito ultimo, il cosiddetto programma di ricerca PEAR, è disarmante.

Image via www.vpnsrus.com.


0 commenti

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Visit Us On FacebookVisit Us On Instagram