Storia del Computer, dalle origini al presente

storia del computer

Al giorno d’oggi è impensabile immaginare la vita quotidiana senza strumenti digitali e il computer è stato il primo ad essere adottato capillarmente in diverse sfere sociali, dal campo della scienza alla vita quotidiana. L’evoluzione sociotecnica del computer è schematizzabile in quattro fasi che si sono succedute, scopriamo insieme quali sono le tappe che hanno caratterizzato la storia del computer.

Calcolatori meccanici

Questa prima fase rappresenta una sorta di preistoria del computer in cui le necessità umane di calcolare e automatizzare processi della vita quotidiana hanno lentamente preso forma dietro spinte economiche, sociali e culturali. Essa è durata millenni (le prime macchine per eseguire i calcoli sono i primi abachi Sumeri di 4.500 anni fa) ed è esclusivamente di natura meccanica, il computer infatti non è stato in origine un “nativo digitale” ma l’evoluzione digitale di bisogni, tecnologie e pratiche che si erano affermate nel mondo analogico e ha condiviso parte del proprio sviluppo con quello delle calcolatrici. Nel ‘600 i matematici Blaise Pascal e Gottfried Wilhelm Leibniz idearono due diverse macchine da calcolo che tuttavia non si tradussero in dispositivi concreti e utilizzabili perché le tecniche meccaniche erano poco avanzate. Nel 1832 invece, Babbage realizzò il prototipo di una macchina calcolatrice chiamata difference engine, il cui progetto venne poi interrotto. Egli proseguì il suo lavoro progettando la analytical engine, spesso considerato il primo computer moderno in grado di calcolare e archiviare i dati, ma il governo britannico smise di sponsorizzarlo e la comunità scientifica britannica rifiutò il suo lavoro così Babbage non riuscì a costruire una macchina funzionante. Le sue idee pionieristiche finirono dimenticate per oltre un secolo, fino a quando nel 1991 una delle sue calcolatrici meccaniche venne riprodotta sulla base dei suoi progetti dimostrando la correttezza delle sue intuizioni. L’Ottocento in realtà fu ricco di una varietà di nuove macchine utilizzate per automatizzare le attività umane e gestire i calcoli grazie alla Rivoluzione industriale e all’affermazione dello stato-nazione e della società di massa. Una prima fondamentale innovazione fu un nuovo tipo di telaio automatico di Joseph-Marie Jacquard del 1801, che funzionava grazie a un rotolo di carta perforata che conteneva le istruzioni che la macchina doveva eseguire, metodo che venne utilizzato nella seconda metà del secolo nelle macchine da calcolo. Nel 1890, ad esempio, Herman Hollerith e James Powers svilupparono apparecchiature capaci di leggere automaticamente le informazioni contenute in schede perforate per realizzare il censimento sulla popolazione degli Stati Uniti d’America. A partire da questa invenzione, nel 1911 Hollerith e altri colleghi diedero vita a un’impresa di macchine calcolatrici chiamata Computing-Tabulating Recording Company (CTR), che nel 1924 cambiò nome in IBM, una delle aziende più influenti nella storia del computer.

Seconda fase della storia del computer: la nascita dei computer digitali

Questa fase abbraccia un periodo compreso tra gli anni Quaranta e gli anni Settanta del Novecento, caratterizzato dall’affermazione dei grandi computer prima per scopi militari e poi per le applicazioni scientifiche e in ambito professionale. Pochi anni prima dello scoppio della Seconda guerra mondiale, il matematico inglese Alan Turing scrisse un articolo scientifico in cui utilizzava i principi matematici per far funzionare una macchina automatica in grado di svolgere operazioni complesse in base al linguaggio binario. La cosiddetta “Macchina di Turing” rappresentava l’idea di partenza per sviluppare un calcolatore in grado di compiere operazioni complesse a partire da un linguaggio di programmazione adattabile e costituì il punto di partenza per i successivi tentativi di creare un computer digitale. Per questo le idee di Turing sono considerate l’inizio della storia delle tecnologie digitali. Successivamente aumentò lo stato di militarizzazione e i principali governi premevano per trovare nuove soluzioni tecniche da applicare in campo militare. Non stupisce quindi che i primi computer vennero sviluppati in segreto nei principali paesi coinvolti nel secondo conflitto mondiale per calcolare la traiettoria dei missili, crittografare le comunicazioni di guerra e decifrare quelle dei nemici. Tra i candidati al titolo di primo computer vi è una macchina, sviluppata nel 1943 dagli inglesi per decifrare le comunicazioni naziste, chiamata Colossus. Tuttavia tutti i modelli del dispositivo vennero distrutti alla fine del conflitto e la loro esistenza fu a lungo cancellata dalla storia del computer. Anche gli Stati Uniti applicarono le nuove tecnologie ai contesti militari ma il primo computer non fu sviluppato in tempo per essere usato durante la guerra. Infatti, solo a conflitto appena concluso, nel 1945 fu completato ENIAC, un enorme congegno che occupava una stanza di più di 150 mq, il primo di una serie di computer chiamati mainframes. ENIAC era enorme e per usarlo serviva una squadra intera di programmatori che utilizzavano schede perforate. Alla fine degli anni Cinquanta si contavano circa 250 mainframes attivi negli Stati Uniti e il primo ad uscire dal contesto militare fu UNIVAC, che nel 1952 divenne famoso per aver calcolato correttamente le intenzioni di voto delle elezioni americane vinte da Eisenhower. Tra la fine degli anni Cinquanta e i primi anni Settanta, una serie di innovazioni e tecnologie iniziarono a modificare la concezione dei computer e le tre fondamentali furono: lo sviluppo di postazioni desktop, il funzionamento in timesharing e l’invenzione dei microprocessori. La prima trasformazione riguardava la possibilità di utilizzo da parte di singoli utenti e non più di una squadra di ricercatori e tra i primi modelli di questo tipo vi fu il 610 di IMB del 1957, che rimaneva comunque di grandi dimensioni, dato che l’unità principale consisteva in un mobile alto circa un metro e alto un metro e mezzo. Di dimensioni più ridotte, ma che assomigliava più ad una macchina calcolatrice, fu il Programma 101 di Olivetti in grado di stare su una scrivania. L’idea del timesharing consisteva nella possibilità di suddividere la potenza di calcolo dei mainframes in modo che potessero essere utilizzati contemporaneamente da più persone tramite postazioni chiamate terminali. Sebbene i terminali non costituissero dei computer autonomi perché il calcolo dipendeva dalla macchina centrale, la tecnica di divisione del tempo e del lavoro modificò le possibilità di utilizzo dei computer aprendo la strada alla creazione dei PC. A contribuire particolarmente alla storia del computer fu la tecnologia del microprocessore a circuiti integrati, che permise la costruzione di computer di piccole dimensioni e ne migliorò le prestazioni. Il circuito integrato venne creato all’inizio degli anni Settanta per Intel da Federico Faggin, che realizzò il primo microprocessore chiamato 4004. Esso fu commercializzato a partire dal 1971 e fu la base per i primi prototipi di personal computer.

Terza fase, il personal computer

La nascita del personal computer non fu semplice né lineare e vennero creati innumerevoli prototipi con diverse caratteristiche, che tuttavia rimasero alla fase embrionale perché la richiesta di mercato era nulla. Tra i primi tentativi troviamo Xerox Alto, creato da Xerox nel 1973. Esso non era un PC vero e proprio ma un terminale che sfruttava la capacità di calcolo di un server centrale, tuttavia introdusse due particolari innovazioni fondamentali: il mouse e l’interfaccia grafica per la gestione delle funzioni basata sulla metafora della scrivania e delle cartelle, che divenne caratteristica del successo dei computer IBM e Apple e del software di Microsoft negli anni Ottanta. Nel 1975 venne messo sul commercio un progenitore del PC: Altair 8800, che veniva venduto smontato per poi essere assemblato dall’utente, stimolando la passione degli hobbisti di elettronica. La sua peculiarità era che si trattava di una scatola con i componenti principali, ma non aveva né schermo né tastiera e nemmeno un sistema operativo. Furono gli stessi appassionati a creare software e applicazioni per farlo funzionare. Due giovani studenti di ingegneria, Bill Gates e Paul Allen, svilupparono nel 1975 proprio per Altair il linguaggio Microsoft Basic, che gli permise di avviare una piccola azienda dedicata esclusivamente alla creazione di software: Microsoft. L’ambiente contro-culturale della Baia di San Francisco fu il terreno fertile per la costruzione del personal computer e tra i principali protagonisti vi furono senza dubbio Steve Jobs e Steve Wozniak, che inizialmente erano hacker e che poi decisero di fondare una propria impresa: la Apple. Avviarono la costruzione del primo modello di computer, Apple I, che ebbe grande successo e gli permise di ottenere investimenti per Apple II, che contribuì alla crescente passione per l’informatica di massa. Nel 1977 arrivarono sul mercato altri due personal computer: PET di Commodore e TRS-80 della Tandy. I passi successivi della storia del computer consistettero nel semplificare l’utilizzo per i non specialisti e trasformare i PC in oggetti desiderabili e alla moda. Il passaggio fondamentale per semplificarne l’uso fu la creazione di software e sistemi operativi semplici e intuitivi, come nel 1984 quando la Apple immise sul mercato Macintosh, il primo personal computer controllabile attraverso un’interfaccia grafica che permetteva di gestire tramite il mouse il desktop e di archiviare i file nelle cartelle in maniera semplice (riprendendo alcune idee di Xerox Alto). Questa ulteriore trasformazione del computer trovò spazio anche nella cultura pop, in particolare nel cinema. Fino ad allora l’idea di computer era legata a HAL 9000, il computer militare del film di Stanley Kubrick 2001: Odissea nello spazio (1968). Negli anni Ottanta invece si moltiplicarono i film in cui i computer erano presenti in contesti sempre più quotidiani e legati al tempo libero. La passione degli adolescenti per i videogiochi fu importante per la diffusione dei primi modelli come Commodore VIC-20 o Sinclair ZX81. Nel 1981 un passo decisivo fu effettuato da Microsoft con il nuovo sistema operativo MS-DOS, che venne istallato su tutti i computer IBM, divenendo il più diffuso e che, successivamente, venne adottato dai personal computer di altre industrie. Nel 1985 poi Microsoft introdusse il primo sistema operativo Windows, utilizzando come Macintosh l’interfaccia grafica, il mouse e la metafora del desktop e nel 1995 creò la versione Windows 95, che integrò anche la possibilità di navigare in rete con Internet Explorer, trasformando i PC nei principali punti di accesso alla rete degli utenti domestici. A partire dalla seconda metà degli anni Novanta infine, il personal computer divenne un oggetto sempre più portatile con i laptop: computer dal peso contenuto, di facile trasportabilità e con il trackpad. Un modello particolarmente significativo fu l’iBook di Apple del 1999, che fece leva anche sulla piacevolezza estetica e sul design.

Ultima fase della storia del computer, il presente

La quarta e ultima fase della storia del computer è quella che possiamo definire come l’epoca dei computer onnipresenti, caratterizzata dal superamento del PC come principale strumento digitale e dalla presenza di strumenti intrecciata con i ritmi della vita quotidiana. A partire dagli anni Dieci del Duemila, infatti, l’uso del computer non è più rimasto circoscritto a macchine specifiche come il personal computer, ma si è frammentato in diversi dispositivi digitali come lo smartphone, lo smartwatch ecc… Il 2001 è l’anno simbolico dell’inizio del declino del personal computer e dell’emergere di una tendenza all’uso di dispositivi sempre più mobili. La RIM, che fino a quel momento era stata attiva nel settore dei cercapersone, introdusse nel 2002 il BlackBerry, un telefono mobile dotato di tastiera QWERTY integrata, ma il vero cambiamento fu introdotto nel 2007 dalla Apple con il primo iPhone e nel 2008 dal sistema operativo di Google, Android, che si poteva usare su dispositivi mobili di varie marche. Anche il lancio dell’iPad da parte della Apple nel 2010 contribuì alla diminuzione dell’uso del PC, in quanto ibrido tra quest’ultimo e lo smartphone. L’evoluzione in qualcosa di sempre più presente e quotidiano è legata anche ai wearable devices come gli smartwatch, che si sono diffusi a partire dal secondo decennio del Duemila. Durante questo decennio la diffusione di computer fissi e portatili è diminuita fino all’impennata del 2020, dopo lo scoppio della pandemia e il lockdown, in cui la necessità di svolgere attività da casa ha invertito la tendenza. Al momento è difficile immaginare quali potranno essere i prossimi sviluppi della storia del computer, ma di certo intraprenderà traiettorie imprevedibili come è già accaduto in passato.

Fonte immagine: pixabay

A proposito di De Fenzo Benedetta

Benedetta De Fenzo (1995) studia Coreano e Giapponese presso l'Università di Napoli L'Orientale. Nel tempo libero si dedica alle sue passioni principali: la cucina, la musica, gli animali e la letteratura.

Vedi tutti gli articoli di De Fenzo Benedetta

Commenta