Seguici e condividi:

Eroica Fenice

Fun e Tech

Stiamo vivendo in una simulazione?

La realtà è un’elaborazione digitale. O almeno così crede una fetta sempre più grande del mondo accademico. Benvenuti nella teoria della simulazione, la filosofia tech del ventunesimo secolo “Viviamo in una simulazione programmata al computer, e l’unico indizio che abbiamo è un’alterazione della realtà, quando una variabile viene cambiata. Avremmo la schiacciante impressione di rivivere il presente – un déjà vu – forse esattamente nello stesso modo: ascoltare le stesse parole, dire le stesse parole. Ritengo che queste impressioni siano valide e significative, e dirò anche questo: tale impressione è un indizio, che in qualche punto del tempo passato, una variabile è stata cambiata – per così dire riprogrammata – e che, per questo, un mondo alternativo si è ramificato”. Queste parole vennero pronunciate da Philip Dick, nel 1977. Lo scrittore si trovava a Metz, in Francia per una convention di fantascienza. Davanti ad una platea che lo ascoltava con attenzione, Dick procedeva sicuro. Probabilmente sapeva già che alcuni dei suoi colleghi avrebbero riso di quel discorso strampalato. D’altronde è uno scrittore di nicchia e all’infuori di certe convention come quella di Metz, il suo nome dice poco. Anni di problemi mentali e uso di droghe psichedeliche, di certo non aiutavano a metterlo in buona luce. Parola dopo parola, emergono i meccanismi alla base dei suoi scritti. Non fantasia, ma realtà. Una realtà simulata in cui milioni di persone vivono ignare, palesatasi allo scrittore un giorno di qualche anno prima dopo un misterioso flash. Il mondo non è altro che un’elaborazione informatica. Facciamo un salto in avanti di ventisei anni. Nick Bostrom, un filosofo svedese dell’Università di Oxford, nel 2003 pubblica un paper dal titolo “Are You Living in a Computer Simulation?” (tradotto, “stai vivendo in una simulazione informatica?”, che potete leggere qui.). Nel paper Bostrom propone un trilemma, tre possibili ipotesi disgiuntive, che si escludono a vicenda: la civiltà si estinguerà prima di raggiungere un livello tecnologico “post-umano”; la civiltà raggiungerà un livello tecnologico “post-umano”, ma preferirà non sprecare le sue risorse per creare simulazioni convincenti; la nostra civiltà sta già vivendo all’interno di una simulazione. Se si crede alla possibilità che una civiltà possa raggiungere un livello tecnologico che supera di gran lunga i livelli attuali e che anche solo una piccola parte di quella civiltà si dedichi alla creazione di simulazioni, le probabilità di vivere già in una simulazione tendono al cento per cento. Il numero di essere simulati supererebbe enormemente gli esseri reali, perché se le simulazioni possono essere molte (dipende ovviamente dalla potenza di calcolo a disposizione) ma la realtà sarà sempre e solo una. Oltre a diffondersi negli ambienti accademici, il paper in questione riesce a far entrare la teoria della simulazione nei media mainstream. Se è vero che la cultura pop da anni si nutriva di certe tematiche ( la trilogia di Matrix ne è un esempio), Bostrom ha preso una teoria strampalata e gli ha dato una dignità accademica. Non è più lo scrittore di fantascienza a parlarne, ma uno studioso di […]

... continua la lettura
Fun e Tech

Presente e futuro oltre la legge di Moore

Mentre la legge di Moore volge al termine, emergono nuovi interessanti scenari che potrebbero cambiare gli assetti politici mondiali È il 1965, quando la rivista Electronics chiede a Gordon Moore, direttore del settore ricerca e sviluppo della Fairchild Semiconductor, di formulare un’ipotesi sull’evoluzione del mercato dei semiconduttori per i successivi dieci anni. Il risultato, un articolo pubblicato il 16 aprile, prevedeva che per il 1975 sarebbe stato possibile inserire 65000 componenti su un semiconduttore di mezzo centimetro. Le stime si rivelarono esatte, dando vita ad una legge che avrebbe cambiato per sempre l’industria elettronica: la legge di Moore. Per circa 50 anni, la legge di Moore ha dettato i ritmi dell’evoluzione tecnica, ricoprendo il duplice ruolo di metro e obbiettivo per i colossi del settore. È stata a tutti gli effetti una profezia autodeterminante. “La complessità di un microcircuito, così come il numero di transistor al suo interno, raddoppia ogni 18 mesi”, così dettava la legge e così le imprese tech spingevano la miniaturizzazione dei processori fino ai limiti della fisica. Ma oggi qualcosa si è rotto e la giostra, che per anni ha girato vorticosamente regalando processori sempre più performanti, rallenta inesorabilmente. Questo perché la miniaturizzazione non può procedere all’infinito. Al diminuire della dimensione dei circuiti (attualmente Intel sta producendo processori a 10 nanometri) diventa infatti sempre più complicato contenere l’elettrone nel gate del transistor. Poiché il funzionamento del transistor è di tipo booleano, ovvero prevede due stati, 0 e 1 (acceso e spento per intenderci), il passaggio incontrollato di elettroni inficerebbe la determinazione di uno stato rispetto all’altro, rendendone impossibile il funzionamento. I problemi non finiscono qui. All’aumentare della complessità di lavorazione dei transistor, i costi di produzione salgono vertiginosamente. Produrre transistor più piccoli dei 7 nanometri, potrebbe quindi essere antieconomico oltre che difficile da realizzare dal punto di vista ingegneristico. Possibili scenari Per sfuggire alla secca in cui l’industria dei processori rischia di incagliarsi, vecchi e nuovi players muovono verso rotte alternative. Se da un lato c’è chi grida all’inesorabile morte della legge di Moore e immagina un futuro guidato dall’ottimizzazione della potenza di calcolo più che da un incremento della stessa, lo sviluppo di nuove tecnologie potrebbe dare nuovo vigore alle previsioni di Moore e permettere ulteriori livelli di miniaturizzazione. Intel, che fatica a mantenere le promesse sulla produzione di transistor a 10 nanometri, accetta il rallentamento dello sviluppo tecnologico e concentra i suoi sforzi prevalentemente sul perfezionamento di strutture già esistenti. Sull’altro versante ci sono AMD e Samsung, che spingono per transistor sempre più piccoli grazie a tecnologie alternative. AMD, grazie al design “chiplet”, ovvero parti di silicio che possono essere assemblate in moduli per creare chip, ha battuto sul tempo Intel, annunciando transistor a 7 nanometri mentre Samsung, in contemporanea con GlobalFoundries, ha promesso i 3 nanometri per il 2021 (tramite la creazione di nanosheet transitor). Qualora la legge di Moore dovesse arrivare veramente al capolinea, non cambierebbe solo le prospettive per l’aumento di capacità computazionale, ma potrebbe mettere in discussione lo storico predominio […]

... continua la lettura