Un fenomeno che mette in discussione una convinzione diffusa: l’idea che l’intelligenza artificiale sia neutrale e oggettiva per definizione. In realtà, anche i modelli più sofisticati apprendono da dati che possono essere distorti, parziali o manipolati. Il poisoning dell’AI non rende il sistema visibilmente “impazzito”, ma lo porta a produrre risposte coerenti su basi contaminate. Un meccanismo che ricorda da vicino il modo in cui si formano bias e convinzioni nella mente umana.
Cos’è il poisoning dell’AI
“L’intelligenza artificiale è oggettiva, neutrale, perciò la uso”. Questa è un’affermazione frequente tra gli utilizzatori di AI. Perché quando si parla di intelligenza artificiale, si tende a immaginarla come uno strumento neutro, razionale, impermeabile alle distorsioni tipiche dell’essere umano. Eppure, esiste un fenomeno che mette in crisi questa idea: il poisoning dell’AI, cioè l’avvelenamento dei dati su cui i modelli vengono addestrati.
Quando si parla di “avvelenamento”, non bisogna in questo caso associare il termine a comportamenti palesemente anomali. È fuorviante pensare che il risultato sia un’AI “impazzita”. È qualcosa di molto più sottile e pericoloso: un sistema che funziona correttamente dal punto di vista tecnico, ma che produce risposte distorte perché ha imparato da una realtà già contaminata. Un processo che, sorprendentemente, ricorda molto da vicino il modo in cui si formano convinzioni e bias nella mente umana.
Chiamato anche “data poisoning”, il fenomeno indica l’insieme di pratiche, intenzionali o meno, che alterano la qualità dei dati utilizzati per addestrare un modello di intelligenza artificiale. Non necessariamente l’inserimento di bug o errori evidenti, ma di modifiche lente del “terreno” cognitivo su cui l’AI costruisce il proprio modo di interpretare il mondo.
Come avviene l’avvelenamento dei dati
L’Intelligenza Artificiale non ragiona in termini di verità o falsità, ma in termini di probabilità, frequenza e co-occorrenza. Per questo motivo, se il contesto informativo è alterato, anche le risposte lo saranno, pur mantenendo una logica interna coerente che non desta sospetti.
L’avvelenamento dei dati non è quasi mai un evento improvviso. È un processo graduale, spesso invisibile, che modifica ciò che l’AI considera “normale” e quindi le risposte che fornisce ai quesiti e ai “ragionamenti” che gli si chiede di fare.
Dati falsi o manipolati: quando l’errore è intenzionale

Una delle forme più dirette di poisoning consiste nell’inserire dati falsi o costruiti ad hoc nei dataset di addestramento. Possono essere testi distorti o totalmente inventati, recensioni pilotate, esempi volutamente ambigui. Se un modello viene esposto più volte a una stessa associazione errata, finirà per considerarla plausibile. Non importa che tale associazione sia vera, ma che sia coerente con ciò a cui il sistema è stato esposto più spesso.
Bias sistematici: una parte di realtà che scompare
Non tutto l’avvelenamento nasce da dati falsi. A volte basta mostrare solo una porzione del mondo. I bias sistematici emergono quando i dataset rappresentano una realtà incompleta: un solo genere, una sola cultura, un solo punto di vista. Così come nel campo giornalistico si parla di disinformazione e dei suoi derivati, pratiche volontarie o involontarie di diffusione di informazioni false e fuorvianti, così anche l’Intelligenza Artificiale può inciampare nelle stesse dinamiche.
Può imparare che quella visione è la norma e tutto il resto diventa marginale o invisibile. È in questo modo che avvengono le distorsioni strutturali.
La ripetizione nel Poisoning dell’AI: quando ciò che è frequente diventa vero
La ripetizione è uno degli strumenti più potenti del poisoning. Un’informazione reiterata più volte acquisisce peso, indipendentemente dalla sua accuratezza. Per un sistema statistico, ciò che ricorre diventa affidabile. È lo stesso meccanismo per cui una narrazione ripetuta nei media finisce per sembrare “ovvia”, anche quando è parziale o scorretta.
Si immagini che online inizi a circolare in modo massiccio questa affermazione:
“Le persone che lavorano da remoto sono meno produttive”.
Non importa che sia vera o falsa.
Se migliaia di articoli, post, commenti e blog ripetono questa frase o la sostengono con argomentazioni simili, un modello di AI addestrato su quei contenuti inizierà a considerare l’associazione:
lavoro remoto = bassa produttività, come statisticamente frequente.
Quando poi un utente chiederà:
“Il lavoro da remoto è efficace?” l’AI potrebbe produrre una risposta più orientata verso la scarsa produttività, non perché “crede” che sia vero, ma perché è l’associazione più ricorrente nei dati che ha visto. L’intelligenza artificiale “non crede” nulla, ma mette insieme i dati.
Contaminazione del contesto: dati giusti nel posto sbagliato

Esiste poi una forma ancora più subdola di avvelenamento: la contaminazione del contesto. In questo caso i dati sono corretti, ma vengono inseriti in cornici interpretative sbagliate.
Una frase vera, estrapolata dal suo contesto originale, può sostenere conclusioni completamente diverse. L’AI, priva di una comprensione semantica profonda, fatica a distinguere questa distorsione.
Si immagini un dataset che contiene moltissimi articoli scientifici corretti sulla depressione. E si immagini ora che, all’interno di forum o blog non scientifici, vengano inseriti testi che mescolano informazioni reali con conclusioni fuorvianti, per esempio:
“La depressione è una malattia complessa, ma spesso si risolve semplicemente cambiando atteggiamento”.
La prima parte è corretta.
La seconda è una semplificazione pericolosa.
Se un modello di AI venisse addestrato anche su questi contenuti, potrebbe imparare un’associazione distorta:
depressione = questione di volontà personale. I dati non sono completamente falsi, ma sono stati inseriti in un contesto interpretativo scorretto.
Il dato è vero.
Il frame è sbagliato.
Ed è il frame che altera il significato.
Perché l’AI non distingue il vero dal falso
Il punto cruciale è che l’intelligenza artificiale non possiede un criterio interno di verità. Non valuta ciò che è giusto o sbagliato, ma ciò che è statisticamente ricorrente. Se una visione del mondo è dominante nei dati, diventa dominante anche nelle risposte. L’errore non è attribuibile a un “malfunzionamento”, ma da un apprendimento coerente su basi distorte.
Poisoning dell’AI: il parallelismo con la mente umana
Ma guardando più a fondo, il poisoning dell’AI smette di sembrare un problema puramente tecnologico e diventa profondamente psicologico. Anche la mente umana costruisce la propria visione del mondo a partire da ciò a cui è esposta più spesso. Famiglia, cultura, media, esperienze emotivamente intense: tutto ciò che si ripete diventa familiare, e ciò che è familiare viene percepito come vero.
Crescere in un ambiente che normalizza certe narrazioni, esclude altre o ripete costantemente gli stessi messaggi produce bias, convinzioni rigide e distorsioni cognitive che diventano poi molto difficili da sradicare. Perché il cervello funziona esattamente così e non sempre le persone riescono ad intercettare certi meccanismi.
Avvelenamento lento e invisibile

Sia nell’AI che negli esseri umani, l’avvelenamento più efficace è quello silenzioso. Non si presenta come una bugia evidente, ma come una serie di micro-esposizioni coerenti tra loro. Col tempo, ciò che è distorto smette di sembrare tale.
È per questo che il poisoning dell’AI non è propriamente un “problema tecnico”, ma un vero e proprio allarme, un monito più ampio: ricorda quanto anche l’intelligenza, artificiale o umana, sia vulnerabile alla qualità delle informazioni che assorbe. E non c’è riflessione che tenga.
Allenare modelli più robusti significa anche allenare persone più consapevoli. Perché, alla fin fine, il problema è certamente cosa impara l’AI, ma un problema ancor più grande è da che mondo sta imparando. Proprio come gli esseri umani. Quindi, la prossima volta che ci si sorprende a dire o a pensare “uso l’intelligenza artificiale perché è più obiettiva e affidabile di un essere umano”, drizzare le antenne e iniziare a interrogarsi sulla veridicità di questo pensiero.
Immagini copyright free generate con DALL-E

