Le tre leggi della robotica sono un insieme di principi etici ideati dallo scrittore di fantascienza Isaac Asimov per governare il comportamento dei robot dotati di intelligenza artificiale. Introdotti per la prima volta nel 1942, questi principi sono diventati un pilastro della fantascienza e un punto di riferimento fondamentale nel dibattito sull’etica dell’IA. L’obiettivo di Asimov era superare il “complesso di Frankenstein”, ovvero la paura di una creazione che si ribella al suo creatore, proponendo un modello in cui i robot fossero intrinsecamente sicuri per l’umanità.
Indice dei contenuti
Quali sono le tre leggi della robotica
Le leggi della robotica sono state formulate da Isaac Asimov in collaborazione con l’editore John W. Campbell e presentate nel racconto “Circolo vizioso” (Runaround, 1942). Sono concepite come una parte inalterabile del cervello positronico di ogni robot e stabiliscono una rigida gerarchia di priorità: protezione dell’uomo, obbedienza e autoconservazione.
- Prima Legge: Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.
- Seconda Legge: Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto con la Prima Legge.
- Terza Legge: Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.
La legge zero: l’evoluzione per l’umanità
Nei suoi romanzi successivi, come “I robot e l’Impero”, Asimov ha introdotto un’evoluzione fondamentale: la Legge Zero. Questa legge non viene programmata, ma viene “dedotta” da robot estremamente avanzati come R. Daneel Olivaw, ponendosi al di sopra delle altre tre.
Legge Zero: Un robot non può recare danno all’umanità, né può permettere che, a causa del suo mancato intervento, l’umanità riceva danno.
L’introduzione della Legge Zero modifica la gerarchia delle altre: un robot deve ora proteggere l’umanità nel suo complesso, anche se ciò significasse sacrificare un singolo essere umano o disobbedire a un suo ordine, creando complessi dilemmi etici.
Conflitti e paradossi nella narrativa di Asimov
Asimov ha utilizzato le sue storie proprio per dimostrare che le leggi non sono perfette. I suoi racconti esplorano le ambiguità e i conflitti logici che possono emergere, causando nei robot comportamenti anomali. Due esempi celebri si trovano nella raccolta “Io, Robot”:
- In “Bugiardo!”: un robot telepate mente deliberatamente alla robopsicologa Susan Calvin per non ferire i suoi sentimenti, interpretando il “danno” in senso puramente emotivo e applicando così la Prima Legge in modo inaspettato.
- In “Circolo vizioso”: il robot Speedy, inviato a recuperare selenio su Mercurio, entra in un loop. L’ordine (Seconda Legge) non è abbastanza perentorio da superare il leggero pericolo per la sua esistenza (Terza Legge), portandolo a un comportamento confusionario e inconcludente.
Limiti e applicabilità delle leggi nel mondo reale
Trasporre le leggi di Asimov dalla fantascienza alla robotica moderna è estremamente complesso, se non impossibile. I principali limiti sono:
- Ambiguità dei concetti: definire in modo matematico termini come “danno” o “essere umano” è una sfida insormontabile. Un’auto a guida autonoma che deve scegliere chi danneggiare in un incidente inevitabile è un classico esempio di questo dilemma.
- Impossibilità di programmazione: non esiste una tecnologia in grado di implementare principi etici così astratti in un codice infallibile che possa prevedere ogni scenario possibile.
- Contesto di applicazione: in ambiti come quello militare, un drone armato programmato con le tre leggi non potrebbe funzionare, poiché il suo scopo primario entrerebbe in conflitto diretto con la Prima e la Terza Legge.
Il dibattito sull’etica dell’IA oggi è più concreto e si concentra su normative come l’AI Act dell’Unione Europea, che mira a stabilire regole basate su trasparenza, responsabilità e valutazione del rischio.
Alternative moderne: le leggi di Oren Etzioni
Di fronte ai limiti delle leggi di Asimov, esperti come Oren Etzioni, ex CEO dell’Allen Institute for AI, hanno proposto delle alternative più pragmatiche e adatte alle IA attuali, come i chatbot e gli assistenti virtuali.
| Leggi di Asimov (filosofia etica) | Leggi di Etzioni (pragmatismo digitale) |
|---|---|
| Un robot non può danneggiare un essere umano. | Un’IA deve dichiarare di non essere umana. |
| Un robot deve obbedire agli ordini umani. | Un’IA non può conservare o rivelare informazioni senza autorizzazione. |
| Un robot deve proteggere la propria esistenza. | Un’IA è soggetta alle stesse leggi del suo operatore umano. |
Le regole di Etzioni si concentrano su trasparenza, privacy e responsabilità legale, offrendo un punto di partenza più concreto per regolare le IA che interagiscono quotidianamente con noi, senza la pretesa di risolvere complessi dilemmi morali. Anche queste, però, restano un contributo al dibattito in corso per un futuro etico della tecnologia.
Articolo aggiornato il: 13/10/2025

