Le tre leggi della robotica: base del creare robot intelligenti

Le tre leggi della robotica: base del creare robot intelligenti

Da sempre, nella cultura della fantascienza, ci si proietta in avanti immaginando le possibili invenzioni che porterebbero l’essere umano e la sua società al vertice della conoscenza e dell’evoluzione. Tra macchine volanti, città iper-tecnologiche e astronavi per spostarsi di pianeta in pianeta, tra le invenzioni fantascientifiche più famose abbiamo i robot, automi di metallo che aiutano le persone in varie mansioni, tra le più semplici e sicure alle più difficili e pericolose. Molti artisti hanno preso queste figure di assistenza dell’uomo e le hanno ritrasformate in infinite varianti, tra robot autonomi e robot malvagi; ma il vero “padre” di queste macchine è lo scrittore di fantascienza Isaac Asimov, che, in molti dei suoi racconti, accompagna le figure dei robot con delle leggi che non possono violare, le tre leggi della robotica.

Isaac Asimov scrive queste tre leggi della robotica insieme al suo collega e amico John W. Campbell, che gli diede una spinta per ottimizzarle, così che Asimov le introdusse pian piano nei suoi racconti.
Le tre leggi della robotica sono le seguenti:

  1. Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.
  2.  Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge.
  3. Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.

Queste tre leggi della robotica servono, quindi, a garantire la sicurezza delle persone alla presenza di questi automi; l’obbedienza dei robot agli ordini dei padroni; e la conservazione e salvaguardia delle unità. Ma possono essere applicate nella vita reale?
Bisogna premettere però che nelle storie di Asimov, le leggi non sono perfette, venendo spesso contradette e scontrandosi tra di loro, causando nei robot un comportamento anomalo e quasi autodistruttivo. I racconti che possono fare da esempio in questo caso sono “Bugiardo!” e “Circolo Vizioso” in cui una o alcune delle leggi della robotica vengono contradette in base al contesto. Nel primo racconto, un robot capace di leggere nel pensiero, mente deliberatamente per non ferire i sentimenti della robo-psicologa che lo sta analizzando, Susan Calvin, quindi dice delle bugie pur di seguire la prima legge. Il secondo racconto presenta un problema più complesso, parla di questo robot, di nome Speedy, che si occupa di recuperare del selenio da una pozza vicino lo stabilimento di base, che si trova su Mercurio. Il robot però ha un problema: Speedy ha rivelato che sotto la pozza c’è dell’attività vulcanica che rischierebbe di danneggiarlo, quindi secondo la terza legge dovrebbe allontanarsi da lì per salvarsi, ma entra in vigore anche la seconda legge, ovvero di eseguire gli ordini dei suoi padroni e di recuperare il materiale richiesto dalla pozza. Queste due leggi della robotica causano una sorta di comportamento confusionario in Speedy, il quale, al posto di agire, inizia a correre attorno alla pozza senza eseguire gli ordini e senza salvarsi.

Queste leggi della robotica, nonostante siano una parte non modificabile della struttura base dell’intelligenza dei robot, possono presentare comunque dei difetti, causando più danni che soluzioni. Nella realtà, secondo lo scrittore per il New York Times ed esperto di robotica Daniel H. Wilson, le leggi della robotica di Asimov non posso essere applicate alla realtà, in quanto impossibili da programmare e, soprattutto riguardo la prima e la terza legge, non avrebbe senso che un robot preservi la sua esistenza. Il giornalista, facendo un esempio nel campo bellico dove la ricerca di intelligenze artificiali che usano armi è in crescita esponenziale, dice che non si potrebbe impartire un ordine a un drone con le tre leggi della robotica di eliminare un bersaglio, visto che entrerebbe in conflitto con la prima legge della protezione delle persone e con la terza legge della salvaguardia del robot, essendo una missione pericolosa.

In sostituzione alle leggi della robotica di Asimov, però, interviene il CEO dell’Allen Institute of Artificial Intelligence Oren Etzioni, che propone delle nuove leggi che si adattino di più alla nostra realtà.

1. Un’intelligenza artificiale deve sempre dichiarare esplicitamente di non essere un umano.

2. Un’intelligenza artificiale non può memorizzare o rivelare informazioni a meno che non abbia ricevuto un esplicito permesso da parte della fonte di queste informazioni.

3. Un’intelligenza artificiale dev’essere soggetta a tutta la gamma di leggi che si applica al suo operatore umano.

Ciò che Oren vuole dare come punto di partenza con le sue leggi della robotica, è un tridente di norme che tutelino noi dalle intelligenze artificiali, essendo queste, come Alexa e vari chatbot che imparano pian piano con le conversazioni, connesse all’Internet e in grado di interagire con la realtà casalinga. Non si vuole dire che da un giorno all’altro Google impazzirà e tenterà di eliminarci come Skynet di Terminator, ma queste nuove e abbozzate leggi della robotica possono essere un punto di partenza per limitare la potenza di queste IA e di avere un maggior controllo su di esse.

 

Fonte immagine in evidenza: Pixabay

A proposito di Fabio Cioffi

Vedi tutti gli articoli di Fabio Cioffi

Commenta