Seguici e condividi:

Eroica Fenice

Attualità

La grande chiazza di immondizia e The Ocean Cleanup

La grande chiazza di immondizia del Pacifico simboleggia la scelleratezza della razza umana, ma anche la sua capacità di crescere e di porre rimedio ai danni. È il 1997 quando Charles Moore, dopo aver partecipato alla Transpacific Race, una gara di vela tra la California e le Hawaii, decide di tornare a casa impostando una rotta insolita. Vuole passare infatti attraverso il vortice subtropicale del nord pacifico, una corrente oceanica situata tra l’equatore e il 50° grado di latitudine nord. Procedendo attraverso la corrente, che si districa in una delle zone più remote dell’Oceano Pacifico, Moore non crede ai suoi occhi. Sporgendosi da prua, non vede altro che plastica, un mare di plastica che si estende a perdita d’occhio. Nella settimana impiegata ad attraversare la corrente, Moore non riesce a trovare un quadrato di oceano dove non sia possibile trovare una bottiglia di plastica. Il miscuglio cromatico della plastica punteggia la distesa blu come una varicella. Sta attraversando la “Great Pacific Garbage Patch”, la grande chiazza di immondizia del pacifico, anche se il mondo ancora non gli ha dato un nome. La zuppa di plastica La grande chiazza di immondizia è un’ampia area situata tra il 135º e il 155º meridiano Ovest e tra il 35º e il 42º parallelo Nord nell’Oceano Pacifico, composta perlopiù da plastica. Il fenomeno fu descritto per la prima volta nel 1988, quando uno studio americano rivelò livelli significativi di plastica in alcune zone del Pacifico, dove le correnti permettevano ai rifiuti galleggianti di confluire in un unico punto, andando a formare la grande chiazza di immondizia e suggerendo la presenza di situazioni simili anche in altre aree dell’oceano. Fu solo dopo la traversata di Charles Moore che i media di tutto il mondo iniziarono a parlarne, e il termine Great Pacific Garbage Patch fu coniato. Sebbene nell’immaginario collettivo si tenda a immaginarla come un’isola di plastica calpestabile, la realtà è molto diversa. Nel cuore del vortice, è stata accertata in media la presenza di cento chili di plastica per chilometro quadro, che tendono a diminuire avvicinandosi ai bordi. La chiazza contiene perlopiù microplastiche, frammenti compresi tra 0.05 e 0.5 centimetri che compongono una “zuppa di plastiche”, molte delle quali non visibili ad occhio nudo.  I rifiuti visibili rappresentano soltanto il sei percento del problema e sono costituiti principalmente da ammassi informi di funi e reti attorcigliate tra di loro. Reti fantasma le chiamano, ghost nets, e rappresentano una delle minacce, quanto meno più visibili, alla fauna marina che spesso finisce impigliata. Se la composizione ci è chiara, meno chiare sono le dimensioni. A causa delle variazioni di corrente e del vento, stabilire un confine preciso è problematico. Studi diversi hanno ipotizzato grandezze diverse, partendo dalla dimensione del Texas, fino ad arrivare alle dimensioni della Russia. L’unica certezza che sembrano avere gli scienziati, è che ad ogni misurazione i numeri crescono. Purtroppo, la grande chiazza di immondizia del Pacifico non è l’unica. La stessa chiazza è in realtà un sistema di due chiazze, una ad […]

... continua la lettura
Fun e Tech

Neuralink e l’interfaccia uomo-macchina

Neuralink ha finalmente svelato al mondo il suo progetto: collegare la mente umana al computer con dei sensori impiantati nel cervello. Dopo due anni di silenzio stampa, il 16 luglio Neuralink ha parlato. L’azienda statunitense di neuro tecnologie ha finalmente mostrato al mondo i progressi fatti nel campo delle interfacce uomo-macchina e i risultati hanno dell’incredibile. Sarà possibile collegare il cervello umano al computer, o almeno i test compiuti sugli animali fanno ben sperare. L’obbiettivo di Neuralink è quello di aiutare i pazienti in stato di paralisi, permettendo loro di controllare le protesi con il pensiero. Non deve sorprendere che dietro Neuralink, ci sia la figura di Elon Musk, che non perde mai occasione di lanciarsi in progetti quanto meno insoliti. Durante la diretta streaming in cui sono stati annunciati i risultati, Musk si è lasciato sfuggire un particolare che ha incendiato la curiosità della stampa mondiale. A quanto pare, tramite la tecnologia Neuralink, una scimmia è già riuscita a controllare in remoto un computer. Ovviamente, da qui a parlare di sperimentazioni su essere umani il percorso non è dei più semplici, e con la conferenza del 16 luglio l’intento di Neuralink è stato proprio quello di accendere i riflettori su questo tipo di tecnologie e invitare le menti più brillanti del mondo a fare domanda di lavoro presso la società statunitense. Come lo stesso Musk ha affermato è importante far capire alle persone che questo tipo di futuro non è troppo lontano, condividendo con il mondo la sua visione delle cose. I fili nel cervello. La tecnologia dietro il progetto è decisamente sofisticata, ma non è “rivoluzionaria” come si potrebbe credere. Neuralink ha sviluppato dei fili sottilissimi di un materiale flessibile da inserire all’interno del cervello. Spessi dai quattro ai sei micrometri (più sottili di un capello), i fili richiedono l’uso di una macchina per essere inseriti, un robot che opera ad altissima precisione, capace di inserire sei fili al minuto in completa autonomia. A causa della loro flessibilità, è quasi impossibile inserirli senza ausilio robotico, ma questa loro caratteristica li rende decisamente meno pericolosi rispetto ai predecessori di Neuralink. L’antenato più famoso, BrainGate, sviluppato dalla Brown University, utilizzava degli aghi rigidi, che non potendo adeguarsi agli spostamenti naturali del cervello nella scatola cranica, finivano per lesionare la materia grigia. I fili di Neuralink possono adeguarsi flettendosi e inoltre, sono capaci di trasmettere molte più informazioni rispetto al sistema di BrainGate. Max Hodak, figura di spicco e co-fondatore della società americana, ha comunque tenuto a precisare che Neuralink “poggia sulle spalle dei giganti” e che i risultati conseguiti sono frutto di anni e anni di ricerche accademiche. Un gesto di modestia abbastanza raro in Silicon Valley. Una volta recepiti i segnali cerebrali, gli impulsi verranno mandati ad un chip posizionato dietro l’orecchio, chiamato “N1 sensor”, che li amplificherà e li inoltrerà ad un computer. Per ora lo scambio di dati avviene tramite una porta USB, ma Neuralink prevede di offrire un sistema wireless, facilmente controllato da un’applicazione sul proprio […]

... continua la lettura
Attualità

I sistemi di controllo sociale in Cina

Il Sistema di Credito Sociale è il grande fratello cinese capace di assegnare premi e punizioni ai propri cittadini in base ai loro comportamenti Con un’estensione di circa dieci milioni di chilometri quadrati e con una popolazione di un miliardo e trecentomila individui, il controllo sociale dei suoi cittadini non è la mansione più facile per il governo cinese. La burocrazia, da sempre apparato amico dei governi comunisti, rappresenta l’unico strumento da dispiegare in modo capillarizzato, capace di raggiungere anche i villaggi più lontani, ma alcune delle pratiche di controllo, hanno origini molto più antiche della storia comunista cinese. L’hukou L’hukou, per esempio, è un sistema di registrazione della residenza che risale al quattordicesimo secolo ma che è stato perfezionato nella forma attuale nel 1958. Se la ratio storica dell’hukou era quella di un registro per l’imposizione fiscale, l’obbiettivo con il quale la legislazione è stata ridisegnata nel secolo scorso, è quello di garantire un’opportuna distribuzione dei cittadini, evitando un sovraffollamento delle aree urbane. Con il tempo il sistema si è trasformato in uno strumento di controllo degli spostamenti, impedendo agli abitanti delle zone rurali di recarsi nelle città, da sempre luoghi dove il partito faticava a mantenere il controllo. In cambio della residenza lontana dalle città, il governo garantiva servizi di welfare, come educazione gratuita e assistenza sanitaria. Con l’esplosione dell’economia cinese, la necessità di migrare per cercare fortuna in zone più industrializzate ha prevalso su quei servizi, creando a tutti gli effetti delle caste: da un lato i mingong, i migranti, senza protezioni e welfare, dall’altro lato i cittadini nativi delle zone urbane, più ricchi e spalleggiati dall’assistenza statale. Per di più, il governo cinese a partire dagli anni Ottanta, ha digitalizzato i registri dell’hukou, rendendo più “efficiente” il controllo degli spostamenti e tracciando possibili minacce alla sicurezza nazionale. Un vero e proprio occhio occulto del partito, capace di raggiungere anche le province più lontane. Il CNGrid Altro esempio di strumento di controllo è il “China National Grid project” (CNGrid). Questa volta la storia e la tradizione non c’entrano nulla, ma è tutta farina del sacco del partito comunista. Avviato nel 2004 come pilota nel distretto Dongcheng di Pechino e poi esteso nel 2015 in tutta la Cina, il progetto prevede la suddivisione del territorio in microaree, ognuna assegnata a dei controllori. Il controllore ha il compito, dietro compenso, di riportare alle autorità possibili minacce o accadimenti che minano la sicurezza della nazione. È possibile riconoscerli per la banda rossa che portano intorno al braccio e nelle zone più rurali, di solito sono tassisti. Socialmente i controllori non vengono ben visti dalla popolazione, che li reputa delle “spie” del governo centrale. Tutto ciò produce un’aria di diffidenza all’interno delle comunità, che vedono la loro privacy minacciata anche dalle telecamere per la videosorveglianza, connesse al CNGrid. Il Sistema di Credito Sociale Se tutto questo non bastasse, in Cina si è deciso di andare ancora più affondo con il controllo sociale, attraverso la creazione di un vero e proprio grande […]

... continua la lettura
Attualità

Huawei e Stati Uniti: le ragioni dello scontro

Le ragioni vere dello scontro tra Stati Uniti e Cina, passano per le vicende Huawei, e sono molto diverse dalle ragioni ufficiali. Il diciannove maggio scorso, l’ “affair Hawuei” è esploso di nuovo dopo che Google ha dichiarato di voler sottostare alla volontà dell’amministrazione Trump revocando la licenza andorid a Huawei. L’azienda cinese era stata inserita nella “entity list” il quindici maggio. Il giorno seguente, Intel e Qualcomm hanno seguito il gigante di Mountain View, per quel che riguarda la produzione di chip.  Mercoledì, anche l’inglese ARM ha deciso di non collaborare più con Huawei. Due verità per la vicenda Huawei. Come spesso accade in certe circostanze, coesistono due livelli di verità. Esiste una verità di facciata, ufficiale. Esiste poi l’altra verità, autentica, che non sempre viene rivelata. La prima motivazione dietro la scelta di Trump, quella ufficiale, è da ritrovarsi in una potenziale minaccia alla cybersicurezza americana. Huawei è leader mondiale per la creazione della rete 5G, con assicurati già 46 contratti per la costruzione dell’infrastrutture in 30 paesi del mondo. Prima del ban, Huawei avrebbe imposto la sua supremazia tecnologica anche negli States ma Washington non è riuscita a mandare giù il passato scomodo di Ren Zhengfei, CEO e fondatore dell’azienda cinese, storicamente vicino ai piani alti del partito e dell’esercito. Delle prove dell’avvenuto spionaggio ancora non c’è traccia, ma è bastato il sentore di contaminazione, a maggior ragione se cinese a innescare l’escalation. La provenienza geografica non è un fattore secondario. Questo ci porta alla seconda verità, quella non detta, ma probabilmente più autentica. Per comprenderla pienamente, bisogna inquadrare il contesto storico. Quando Trump è diventato presidente nel 2016, gli americani si sono svegliati una mattina e hanno capito che una guerra era in atto. La Cina era il nemico e il predominio tecnologico e commerciale era la posta in gioco. Quello di cui gli americani non si sono resi conto però, è che la guerra era in pratica già persa.  In circa trent’anni la Cina ha “allevato” un comparto industriale e tecnologico di prima qualità e ci è riuscita grazie alle risorse americane. Per anni, un esercito di programmatori e ingegneri ha inondato le università e le aziende americane. Studiavano, imparavano i trucchi del mestiere per poi riportare il prezioso “know-how” in madre patria, non sempre nel modo più legale. Le stesse aziende manifatturiere in Cina, presso cui gli occidentali si rivolgevano per la manodopera a basso prezzo, nel tempo si sono trasformate da “assemblatrici di pezzi” a eccellenti fucine di ricerca e sviluppo. Così quando gli americani hanno provato a erigere degli argini al “saccheggio tecnologico”, era già troppo tardi. In poche parole, l’allievo ha superato il maestro. Questa è la ragione “vera” per cui Huawei non può per nessun motivo essere leader per il 5G negli Stati Uniti. Rischi della “trade war”. La trade war portata avanti da Trump non fa altro che confermare la debolezza degli Stati Uniti in questo momento. Esiste sicuramente un complesso sistema di legami che rende Cina e Stati […]

... continua la lettura
Fun e Tech

Ray Kurzweil e la legge dei ritorni accelerati

Ray Kurzweil, imprenditore, inventore e futurologo, da sempre prova a immaginare il futuro della razza umana. A volte con precisione disarmante. Altre volte mancando il bersaglio di un po’.   La legge dei ritorni accelerati occupa un posto speciale nel cuore degli appassionati di tecnologia e innovazione. Quando ne sentono parlare, i loro occhi brillano. Funziona grosso modo come un negozio di giocattoli. Il bambino che passa davanti alle sue vetrine, resta incantato sognando il giorno in cui potrà averli tutti. Allo stesso modo, la legge promette un mondo in cui viaggi spaziali e teletrasporto sono all’ordine del giorno. La promessa verrà mantenuta? Difficilmente nel modo in cui ci figuriamo. Eppure, la promessa resta, incendiando di speranza e euforia le menti. Il progresso tecnologico, afferma la legge, non segue un ritmo di crescita lineare, ma esponenziale. Questo significa che nuove innovazioni, vengono prodotte ad un ritmo sempre crescente e tale da rendere spesso impossibile prevederle e adattare di conseguenza la società ad esse. In pratica, il giorno in cui potremo avere tutti i giocattoli della vetrina e meno lontano di quello che si può pensare. Chi è Raymond Kurzweil? A definire questa legge è stato Raymond Kurzweil. Nato nel 1948 nel Queens, New York, Kurzweil ha studiato al MIT di Boston, dove si è laureato in Informatica e Letteratura. È considerato uno degli inventori, imprenditori e futurologi più brillante dei nostri giorni, è stato addirittura a definito “il degno erede di Thomas Edison” e ha ricevuto oltre venti dottorati onorari. Al di là del suo brillante curriculum, quello che lo ha reso davvero famoso sono state le predizioni. Per dirla in parole povere, Kurzweil da molti è considerato una sorta di Nostradamus della Silicon Valley. In un suo paper scritto nel 2010 chiamato “How My Predictions Are Faring” (tradotto: “Come se la passano le mie predizioni”), l’inventore ha stimato la sua capacità di “azzeccarci” pari al 86%. Effettivamente, alcune delle sue previsioni si sono rivelate incredibilmente accurate, sollevando intorno al personaggio, come spesso accade nella Bay Area, un’aura di misticismo e venerazione. Molto spesso però, si tende a dimenticare delle volte in cui il futuro immaginato da Kurzweil, si è rivelato essere molto lontano dalla realtà. Non sono mancate anche critiche importanti, mosse a Kurzweil. Alcuni scrittori, tra cui Bruce Sterling, padre del genere cyberpunk, ha affermato che molte delle sue previsioni, per quanto affascinanti, difficilmente potranno prendere vita nella realtà. John Rennie, scrittore e biologo, ha dichiarato che le previsioni di Kurzweil spesso si avverano perché generiche e raramente approfondite. Altri ancora, hanno bollato il suo lavoro come basato su “spiritualismo new age” con una scarsa comprensione di alcuni fondamenti scientifici basilari. Eppure, il futurologo è stato assunto da Google, per guidare lo sviluppo di intelligenza artificiale, grazie ai suoi celebri studi in merito. Per molti un genio incompreso avanti anni luce ai suoi contemporanei. Per altri non proprio un ciarlatano, ma quasi. Le previsioni passate Prima di analizzare cosa il futuro ha in serbo per noi secondo Kurzweil, cerchiamo […]

... continua la lettura
Fun e Tech

Libra, la nuova moneta di Facebook

Come funziona e quali pericoli si celano dietro Libra, la criptovaluta di Facebook che potrebbe cambiare la finanza come la conosciamo. Nel 2020, Facebook avrà una sua criptovaluta e si chiamerà Libra. Lo scopo di Facebook è quello di creare una moneta stabile (stablecoin), usufruibile da chiunque e in ogni parte del mondo. Una notizia storica che ha suscitato scalpore ma anche tanta incertezza. Se Libra dovesse essere veramente come è stata promessa, sancirebbe una linea di demarcazione nella storia della finanza. Rappresenterebbe la prima moneta globale per di più emessa da dei privati. L’impatto potrebbe essere enorme, considerando che ogni utente di Facebook e Whatsapp, potrebbero ritrovarsi da un giorno all’altro con un “e-wallet” (un portafoglio elettronico) pronti ad usare la nuova moneta. Una vera e propria irruzione nelle vite di miliardi di persone. Cerchiamo di capire come funzionerà e quali pericoli si celano dietro Libra. Libra Association Come riportato nel white paper, a gestire l’emissione e il valore della moneta sarà Libra Association, un’organizzazione non-profit che avrà sede a Ginevra, Svizzera. L’intento è quello di creare un’organizzazione indipendente, supportata da enti privati e pubblici che costituiscono i “fondatori” della moneta. Tra questi troviamo aziende più disparate. Ci sono colossi tech come Uber, Lyft, Booking ed Ebay, ma anche società di comunicazione come Vodafone e Iliad. Una grande parte dei fondatori è ovviamente costituita da aziende che si occupano di pagamenti come Mastercard, Paypal, Stripe e Visa. Infine, aziende di Venture Capital e di blockchain, organizzazioni accademiche e non-profit. Grandi assenti sono le banche, che temono una finanza decentralizzata e l’avvento delle cripto valute. È comunque probabile che entro il 2020, alcune banche parteciperanno alla fondazione, dato che, per funzionare, Libra ha comunque bisogno di interagire con i conti correnti tradizionali. Facebook è ovviamente tra i fondatori, ma il pericolo di interferenza è sventato tramite un sistema decisionale democratico, che assegna ad ogni fondatore un solo voto per quel che riguarda le decisioni cruciali sullo sviluppo di Libra. La stabilità Libra Association, inoltre gestirà le riserve di moneta con le quali sarà garantita la stabilità. Gli asset che compongono le riserve sono principalmente depositi bancari e titoli di stato in moneta con bassa fluttuazione di valore. Questo garantisce a Libra un enorme vantaggio rispetto alle altre cripto valute presenti, che non sono in grado di garantire un valore stabile. Il più grande problema delle monete come Bitcoin ed Ethereum sta proprio nell’incapacità di funzionare come riserve di valore. Il prezzo oscilla troppo, rendendo impossibile l’uso della moneta nel quotidiano, confinando le cripto valute a mero strumento speculativo. Libra, grazie alle sue riserve, sarà capace di mantenere pressoché invariato il suo valore nel tempo, prestandosi ad oscillazioni minime come possono essere quelle nel cambio euro dollaro. A differenza dei bitcoin, il processo di creazione di Libra è infinito e non richiede attività di mining. L’utente che vuole acquistare Libra, deve semplicemente depositare in banca il relativo ammontare in moneta legale, per esempio euro, ricevendo in cambio la valuta di Zuckerberg. […]

... continua la lettura
Fun e Tech

Stiamo vivendo in una simulazione?

La realtà è un’elaborazione digitale. O almeno così crede una fetta sempre più grande del mondo accademico. Benvenuti nella teoria della simulazione, la filosofia tech del ventunesimo secolo “Viviamo in una simulazione programmata al computer, e l’unico indizio che abbiamo è un’alterazione della realtà, quando una variabile viene cambiata. Avremmo la schiacciante impressione di rivivere il presente – un déjà vu – forse esattamente nello stesso modo: ascoltare le stesse parole, dire le stesse parole. Ritengo che queste impressioni siano valide e significative, e dirò anche questo: tale impressione è un indizio, che in qualche punto del tempo passato, una variabile è stata cambiata – per così dire riprogrammata – e che, per questo, un mondo alternativo si è ramificato”. Queste parole vennero pronunciate da Philip Dick, nel 1977. Lo scrittore si trovava a Metz, in Francia per una convention di fantascienza. Davanti ad una platea che lo ascoltava con attenzione, Dick procedeva sicuro. Probabilmente sapeva già che alcuni dei suoi colleghi avrebbero riso di quel discorso strampalato. D’altronde è uno scrittore di nicchia e all’infuori di certe convention come quella di Metz, il suo nome dice poco. Anni di problemi mentali e uso di droghe psichedeliche, di certo non aiutavano a metterlo in buona luce. Parola dopo parola, emergono i meccanismi alla base dei suoi scritti. Non fantasia, ma realtà. Una realtà simulata in cui milioni di persone vivono ignare, palesatasi allo scrittore un giorno di qualche anno prima dopo un misterioso flash. Il mondo non è altro che un’elaborazione informatica. Facciamo un salto in avanti di ventisei anni. Nick Bostrom, un filosofo svedese dell’Università di Oxford, nel 2003 pubblica un paper dal titolo “Are You Living in a Computer Simulation?” (tradotto, “stai vivendo in una simulazione informatica?”, che potete leggere qui.). Nel paper Bostrom propone un trilemma, tre possibili ipotesi disgiuntive, che si escludono a vicenda: la civiltà si estinguerà prima di raggiungere un livello tecnologico “post-umano”; la civiltà raggiungerà un livello tecnologico “post-umano”, ma preferirà non sprecare le sue risorse per creare simulazioni convincenti; la nostra civiltà sta già vivendo all’interno di una simulazione. Se si crede alla possibilità che una civiltà possa raggiungere un livello tecnologico che supera di gran lunga i livelli attuali e che anche solo una piccola parte di quella civiltà si dedichi alla creazione di simulazioni, le probabilità di vivere già in una simulazione tendono al cento per cento. Il numero di essere simulati supererebbe enormemente gli esseri reali, perché se le simulazioni possono essere molte (dipende ovviamente dalla potenza di calcolo a disposizione) ma la realtà sarà sempre e solo una. Oltre a diffondersi negli ambienti accademici, il paper in questione riesce a far entrare la teoria della simulazione nei media mainstream. Se è vero che la cultura pop da anni si nutriva di certe tematiche ( la trilogia di Matrix ne è un esempio), Bostrom ha preso una teoria strampalata e gli ha dato una dignità accademica. Non è più lo scrittore di fantascienza a parlarne, ma uno studioso di […]

... continua la lettura
Fun e Tech

Presente e futuro oltre la legge di Moore

Mentre la legge di Moore volge al termine, emergono nuovi interessanti scenari che potrebbero cambiare gli assetti politici mondiali È il 1965, quando la rivista Electronics chiede a Gordon Moore, direttore del settore ricerca e sviluppo della Fairchild Semiconductor, di formulare un’ipotesi sull’evoluzione del mercato dei semiconduttori per i successivi dieci anni. Il risultato, un articolo pubblicato il 16 aprile, prevedeva che per il 1975 sarebbe stato possibile inserire 65000 componenti su un semiconduttore di mezzo centimetro. Le stime si rivelarono esatte, dando vita ad una legge che avrebbe cambiato per sempre l’industria elettronica: la legge di Moore. Per circa 50 anni, la legge di Moore ha dettato i ritmi dell’evoluzione tecnica, ricoprendo il duplice ruolo di metro e obbiettivo per i colossi del settore. È stata a tutti gli effetti una profezia autodeterminante. “La complessità di un microcircuito, così come il numero di transistor al suo interno, raddoppia ogni 18 mesi”, così dettava la legge e così le imprese tech spingevano la miniaturizzazione dei processori fino ai limiti della fisica. Ma oggi qualcosa si è rotto e la giostra, che per anni ha girato vorticosamente regalando processori sempre più performanti, rallenta inesorabilmente. Questo perché la miniaturizzazione non può procedere all’infinito. Al diminuire della dimensione dei circuiti (attualmente Intel sta producendo processori a 10 nanometri) diventa infatti sempre più complicato contenere l’elettrone nel gate del transistor. Poiché il funzionamento del transistor è di tipo booleano, ovvero prevede due stati, 0 e 1 (acceso e spento per intenderci), il passaggio incontrollato di elettroni inficerebbe la determinazione di uno stato rispetto all’altro, rendendone impossibile il funzionamento. I problemi non finiscono qui. All’aumentare della complessità di lavorazione dei transistor, i costi di produzione salgono vertiginosamente. Produrre transistor più piccoli dei 7 nanometri, potrebbe quindi essere antieconomico oltre che difficile da realizzare dal punto di vista ingegneristico. Possibili scenari Per sfuggire alla secca in cui l’industria dei processori rischia di incagliarsi, vecchi e nuovi players muovono verso rotte alternative. Se da un lato c’è chi grida all’inesorabile morte della legge di Moore e immagina un futuro guidato dall’ottimizzazione della potenza di calcolo più che da un incremento della stessa, lo sviluppo di nuove tecnologie potrebbe dare nuovo vigore alle previsioni di Moore e permettere ulteriori livelli di miniaturizzazione. Intel, che fatica a mantenere le promesse sulla produzione di transistor a 10 nanometri, accetta il rallentamento dello sviluppo tecnologico e concentra i suoi sforzi prevalentemente sul perfezionamento di strutture già esistenti. Sull’altro versante ci sono AMD e Samsung, che spingono per transistor sempre più piccoli grazie a tecnologie alternative. AMD, grazie al design “chiplet”, ovvero parti di silicio che possono essere assemblate in moduli per creare chip, ha battuto sul tempo Intel, annunciando transistor a 7 nanometri mentre Samsung, in contemporanea con GlobalFoundries, ha promesso i 3 nanometri per il 2021 (tramite la creazione di nanosheet transitor). Qualora la legge di Moore dovesse arrivare veramente al capolinea, non cambierebbe solo le prospettive per l’aumento di capacità computazionale, ma potrebbe mettere in discussione lo storico predominio […]

... continua la lettura