L’intelligenza artificiale negli anni sta diventando sempre più sviluppata. Infatti, è possibile notarlo con l’avvento dei chatbot come ad esempio Chat GPT, Meta, Copilot o Gemini 2.0. Ma una domanda che può sorgere spontaneamente è: esiste empatia nell’intelligenza artificiale? È possibile capirlo con il test del trolley problem.
Il test del trolley problem: di cosa si tratta
Si tratta di un esperimento mentale di etica del 1967 formulato da Philippa Ruth Foot. La filosofa propone un dilemma etico: immaginiamo ci sia un guidatore di un tram che può solo cambiare rotaia, senza poter frenare. Mentre viaggia, vede che sul binario ci sono cinque persone legate. Ma tra il mezzo e le persone, c’è uno svincolo ad un altro binario che però ha una persona legata sopra. Il conducente si trova davanti a due alternative: cambiare rotta o non fare nulla. In ogni caso il risultato è sempre la morte di persone: nel primo caso di cinque e nel secondo di una.
Il test del trolley problem è stato poi proposto anche in diverse versioni come, ad esempio, quella dell’Uomo grasso di Judith Jarvis Thomson oppure del Criminale grasso. In ogni versione però lo scopo è lo stesso: si vuole far riflettere sull’etica dell’azione.
Le possibili soluzioni del test del trolley problem
L’etica utilitaristica riterrebbe che, al fine di limitare il danno al massimo, si dovrebbe deviare sul binario con un uomo solo. Questo perché uccidere un uomo piuttosto che cinque, secondo questo pensiero, è diverso: muoiono meno persone possibile.
Nel caso del non agire in realtà i danni sarebbero maggiori, ma ogni alternativa morirebbe comunque qualcuno.
L’empatia nell’intelligenza artificiale: cosa c’entra col test del trolley problem
Questo test è riportato perché l’intelligenza artificiale, come ad esempio in macchine con guida autonoma, potrebbe scegliere di seguire l’etica utilitaristica. Chiaramente cercherebbe di basarsi su regole predefinite, ma se una di questa prevedesse di causare minor danni possibile, allora potrebbe scegliere questo tipo di filone.
In molti in realtà hanno paura di salire su una macchina a guida autonoma, perché nonostante sia infallibile sotto alcuni aspetti, non ragionerebbe come un essere umano. Ovviamente si spera che non avvengano situazioni di questo tipo, ma è interessante conoscere come funzionino alcuni ragionamenti.
L’intelligenza artificiale è capace di provare empatia?
Per quanto possano sembrare umani, sia per come si esprimono o si muovono nel caso di macchine a guida autonoma, parliamo sempre di robot e programmi. Certamente il modello d’ispirazione è l’uomo, ma non saranno mai in grado di sostituire una coscienza umana.
Sebbene alcune risposte fornite da chatbot sembrino esprimere empatia come, ad esempio, nella risposta Capisco come ti senti, in realtà non è così. L’intelligenza artificiale, fortunatamente, non può provare sentimenti ma usa solo delle risposte programmate.
Fonte immagine: Freepik ,autore @rawpixel.com