Datacrazia: un’antologia per ripensare la società dei dati

Datacrazia

Datacrazia è l’antologia curata da Daniele Gambetta e pubblicata da D Editore per la collana Eschaton. Una raccolta di testi per capire la politica, la cultura algoritmica e i conflitti al tempo dei big data.

Datacrazia è innanzitutto un bel libro da avere tra le mani perché dà un senso di compattezza, di solidità. Elementi che, peraltro, ritroveremo nell’organizzazione dei 23 testi raccolti in cinque parti. Circa 380 pagine per inquadrare un tema che spesso rischia di oscillare tra l’utopia e la distopia. L’antologia curata da Daniele Gambetta trova la misura giusta analizzando il tema da prospettive diverse. Si alterna la lente politica con quella sociologica, quella musicale con quella etica. Sguardi diversi per capire il fenomeno della datificazione e delle relative conseguenze nelle nostre vite.

Datacrazia: uno sguardo dall’interno

Leggendo un libro su big data, machine learning, algoritmi e datacrazia ci si aspetterebbe la descrizione di un universo digitale lontano da questioni epistemologiche, etiche, storiografiche, politiche. La lettura di Datacrazia, invece, è soprattutto questo. Un tentativo di sistematizzare un’impalcatura teorica per capire quali siano gli strumenti da usare nell’approccio a questi temi. Non si tratta solo di codici, parte comunque fondamentale, ovviamente, ma di capire quali sono le idee che nascondono.

Oggi l’uomo tende a fondersi col digitale, tanto a livello cognitivo che sensitivo e materiale. Ormai i device sono estensioni del corpo e della mente e contribuiscono alla costruzione della rappresentazione del nostro mondo. Offrono suggerimenti sui nostri gusti musicali, sui prodotti che vorremmo o dovremmo acquistare, sulle serie che vorremmo o dovremmo guardare. Frammentano la nostra attenzione e ci rendono sfuggenti, emotivi, talvolta isolati e incapaci di riconoscere la verità.

Ma i tentativi di influenzare la nostra rappresentazione della realtà sono sempre esistiti. Il punto è come si declini ciò oggi. In particolare, come fa notare Manconi, i bot nelle reti sociali «non puntano, come nella classica propaganda, a suggerire esplicitamente cosa si dovrebbe pensare, ma forniscono piuttosto rappresentazioni distorte e arbitrarie di cosa pensino gli altri, o meglio di cosa pensi la rete. Emerge così l’importanza che le reti sociali assumono nella quotidiana (guerra sulla) costruzione di una rappresentazione della società. Questa è sempre più frutto della auto-comunicazione di massa, ma qui si insinuano anche, con dissimulazioni sempre più sofisticate, attori con enormi risorse e strategie oscure volte a imporre la loro informazione, analizzando, processando e catturando la nostra comunicazione».

La nostra rappresentazione del mondo, dunque, può essere deliberatamente influenzata da grandi attori politici ed economici. In un’intervista rilasciata da Roberto Pizzato, Nello Cristianini spiega che l’intelligenza artificiale «acquisisce informazioni, le processa, impara, fa dei piani, sceglie ed esegue delle azioni, o meglio si comporta in modo da massimizzare il suo profitto. […] Se l’obiettivo del sistema è massimizzare i clic, massimizzerà i clic» non preoccupandosi di filter bubble o di creazione di disuguaglianze. «Siamo di fronte ad un cambiamento paragonabile alla rivoluzione industriale. Cambiano i paradigmi stessi della nostra società, abbiamo bisogno di nuovi valori, di nuove leggi per regolare questo processo. […] Non è vero che i dati sono oggettivi. Data-driven non significa oggettivo, può infatti essere soggettivo, ma in un modo nascosto e quindi più insidioso».

Datacrazia è un primo passo per occupare uno spazio lasciato oggi al completo dominio dei cultori della fine della teoria. Secondo alcuni, infatti, le correlazioni tra enormi quantità di dati ci permetterebbero di comprendere cosa accadrà nel futuro. Ma, come fa notare Eleonora Priori, senza una teoria non si saprebbe quali dati raccogliere e interpretare. Correlation is [not] enough. Inoltre, come spiega Emanuele Cozzo, lo strumento di osservazione concorre esso stesso a produrre la realtà osservata: gli algoritmi non sono neutrali.

Roberto Speranza evidenzia come i data scientist che hanno la pretesa di predire il futuro non si rendano conto che «così facendo, qualora le loro ipotesi si rivelassero fondate, metterebbero a disposizione dei decisori politici dei potenti strumenti di controllo e repressione delle masse. Piuttosto che prevedere rivolte e attentati terroristici, avrebbe certamente più senso cercare di intervenire nei contesti di disagio in cui questi fenomeno emergono». E l’attenzione deve essere rivolta anche agli strumenti adoperati per intervenire in tali contesti. Le intelligenze artificiali, guidate da dati che hanno in sé errori e pregiudizi umani possono giungere a conclusioni errate ma protette e giustificate dell’aura di scientificità. Del resto, l’intelligenza artificiale funziona bene perché si affida a calcoli statistici e probabilistici non avendo bisogno di capire dati che riflettono errori e pregiudizi umani.

Nell’era del capitalismo delle piattaforme solo le grandi aziende, e più raramente gli Stati (per ora), hanno la capacità di sfruttare grandi quantità di dati garantite da masse di utenti disposti a rinunciare alla privacy in cambio di servizi.  Se si lascia questo potere alle grandi aziende che perseguono (anche legittimamente) esclusivamente un fine economico, è inevitabile che tali colossi non si preoccupino della democraticità del processo di raccolta, gestione e analisi dei dati. Non è il loro compito.

Si è (forse) ancora nei limiti temporali massimi per governare un processo ormai avviato da tempo e che rappresenta una transizione di natura economica, politica, sociale e umana epocale. L’idea che il processo vada da sé e che non necessiti di una guida non è solo già smentita dai fatti, ma anche controproducente per la collettività a vantaggio di pochi.

Gli esempi virtuosi esistono, anche nell’ambito della politica e del giornalismo. Lo dimostrano piattaforme come Decidim o esempi di Data Journalism. Continuare ad oscillare tra l’utopia e l’apocalisse tecnologica non ci aiuterà. Smetterla di demonizzare o idolatrare questi strumenti, comprendere come funzionano e quali logiche sottendono è fondamentale per costruire un’impalcatura politica, sociale, scientifica, tecnologica che possa garantire un vantaggio collettivo.

Fonte immagine: D Editore

A proposito di Salvatore Tramontano

Studia Mass Media e Politica presso l'Università di Bologna. Scrive per capire cosa pensa.

Vedi tutti gli articoli di Salvatore Tramontano

Commenta