Kant e la legge 0 della robotica

1

0. Un robot non può recare danno all’umanità, né può permettere che, a causa del proprio mancato intervento, l’umanità riceva danno.

Surrogati dell’uomo, come in Philip Dick, dotati di una psicologia equiparabile a quella umana. Oppure “elaboratori umani privi di sentimenti” come in Asimov. I “robot” li troviamo in tutte le salse nella narrativa fantascientifica.

Come nella realtà, vi è però l’esigenza di dare regole rigide agli oggetti diversi dalla nostra specie, ma capaci di comportamenti umani.

Perché l’uomo dovrebbe creare un Robot nel futuro? Come si può collegare il filosofo Kant alla robotica?

Perché l’uomo dovrebbe creare un Robot nel futuro?

Possiamo distinguere due grandi motivi:

  1. per evitare lavori faticosi, che rendono poco e possono essere socialmente umilianti;
  2. per svolgere compiti altamente rischiosi.

Nel primo caso, abbiamo dei Robot-schiavi (assimilabili ai “servi” di Hegel) come quelli di Asimov. Il Robot deve rimanere un “puro servo”.

Nel secondo caso abbiamo, invece, un Robot-soldato, come nel caso degli androidi di Blade Runner.

Solo tre leggi?

Le famose tre leggi della robotica furono pubblicate da Asimov nel 1942:

1) un robot non può nuocere all’uomo né permettere che, per il suo mancato intervento, un uomo riceva danno;

2) un robot deve sempre obbedire agli ordini ricevuti, a meno che questi non contrastino con la Prima Legge;

3) un robot è tenuto ad autoconservarsi e a difendersi a meno che questo non contrasti con la Prima e Seconda legge.

In realtà, sono più di tre: se scomposte adeguatamente, indicano i comportamenti che un Robot non può seguire “per principio”.

La prima legge vincola il Robot ad agire sempre verso un fine non contrario alla vita umana, o al suo deperimento.

La seconda legge definisce lo scopo pratico del Robot: è un mezzo dell’uomo. Sebbene non sia specificato da chi debbano provenire gli ordini, è implicito che siano gli uomini a comandare.

La terza legge dice che il Robot ha “diritto” alla vita e alla difesa, a patto che non operi contro alla prima e alla seconda legge. Se c’è un attentatore e il Robot può salvare la vita al suo padrone al solo costo della propria esistenza, egli deve sacrificarsi senza esitazione.

Che tipo di leggi sono?

Possono essere leggi morali, leggi politiche o leggi fisiche.

Senza dubbio non sono leggi fisiche: non descrivono il comportamento di corpi né lo rendono prevedibile.

Non è certamente un tipo di legge politica: non è stata presa da una comunità come regola da seguire.

Si tratta, quindi, di “leggi morali” , cioè delle norme che definiscono i comportamenti adeguati da quelli inadeguati.

Il problema delle tre leggi

Il problema delle tre leggi è che esse falliscono nel concreto.

Un primo esempio: il caso di un uomo che stia per sparare ad un altro con un fucile, abbastanza lontano da non esser raggiunto dall’androide. Entrambi gli uomini si minacciano reciprocamente. Il Robot non avrebbe il modo di salvare entrambe le vite. Questo caso rappresenta una doppia violazione della prima legge.

Un altro caso può essere rappresentato dal fatto che un Robot non può salvare qualcuno alle spese di qualcun altro, ad esempio, un attentatore può far saltare un intero palazzo e il Robot può salvare la vita di tutti solo con l’uccisione dell’uomo.

Questi casi contrastano con la prima legge. Possiamo, allo stesso modo, costruirne altri con le altre leggi.

Le “morali” astratte hanno questo problema: non dicono come bisogna agire in casi concreti.

Passiamo a Kant..

“il cielo stellato sopra di me, e la legge morale dentro di me”  I. Kant

Sebbene si possano nutrire seri dubbi sul fatto che esse possano vincolare il comportamento dei Robot, possono essere delle regole valide per gli uomini.

“Opera in modo che la massima della tua volontà possa sempre valere in ogni tempo come principio di una legislazione universale” .

“Non può mai esser tenuto per legge pratica un precetto pratico, che implichi una condizione materiale”.

Queste sono due celebri frasi della “Critica della ragion pratica” di Kant.

Il pensatore tedesco ci sta mostrando come le azioni, che sono il frutto di una decisione, possano essere prese o a partire da una legge universale o a partire da delle massime pratiche.

Le massime pratiche hanno la forma delle implicazioni logiche (se questo allora quello) e ci mostrano come raggiungere degli scopi materiali particolari.

Tuttavia, essendo questi scopi soggettivi, è facile che essi non siano indirizzati verso il bene collettivo.

Così, per trovare qualcosa che non sia determinato dalla voglia del singolo, bisogna rivolgerci direttamente alla fonte di ogni legge particolare.

L’imperativo categorico

L’imperativo categorico non determina i singoli mezzi attraverso cui noi giungiamo ad un fine determinato, ma a cosa dobbiamo mirare. Questa legge non può essere contaminata da qualcosa di particolare e soggettivo, altrimenti ricadremmo nella volontà singola e particolare.

L’imperativo categorico è […] uno solo, ed è questo: Agisci unicamente secondo quella massima, in forza della quale tu puoi volere nello stesso tempo che essa divenga una legge universale.

L’etica kantiana impone che nessun nostro fine possa servire da fondamento della moralità, che non sia l’uomo stesso, così da non servirsi di altri mezzi per realizzare i nostri desideri o le nostre pulsioni.

Come Kant specifica in un’altra sua definizione dell’imperativo categorico:

Agisci in modo da trattare l’umanità, tanto nella tua persona quanto nella persona di ogni altro, sempre nello stesso tempo come un fine, e mai unicamente come un mezzo.

Siamo al di fuori del soggettivismo perché questa legge non è definita a partire da condizioni materiali. E’, in ciò, l’esatto opposto della massima pratica, nata dal concreto per rifinire nel concreto.

L’imperativo categorico nasce dalla ragione e si “concretizza” solo in un secondo momento. Tuttavia questo è il limite, secondo Kant, della legge morale: in un certo momento, essa deve “materializzarsi”.

Kant vs Asimov

La visione kantiana della morale e quella di Asimov, presentata nelle “tre” leggi, sono molto simili. Kant si pone il problema di definire una norma del comportamento grazie alla quale possiamo derivare altre regole altrettanto universali, altrettanto fondate e intersoggettive. Asimov l’intersoggettività la rende possibile grazie alle leggi.

I Robot, come i soggetti morali ideali kantiani, prendono le mosse da teoremi formalmente definiti e procedono per deduzioni.

Entrambe le posizioni muovono dall’assunzione di una razionalità astratta, dove il dato concreto viene dopo la determinazione dell’azione moralmente più universale.

Filosofia nella robotica?

Si può dire, quindi, che anche in una disciplina come la robotica (matematica e ingegneristica), possiamo ritrovare dei frammenti di pensiero filosofico.

D’altronde, sia che si abbia a che fare con gli uomini, che con esseri di altra specie, non vi è sempre l’esigenza di definire delle norme comportamentali?

Alice Mauri

 

Di Alice Mauri leggi anche:

https://www.sistemacritico.it/eutanasia-diritto-di-morire-con-dignita/

https://www.sistemacritico.it/il-festival-delle-apparenze/https://www.sistemacritico.it/il-festival-delle-apparenze/

https://www.sistemacritico.it/17-maggio-giornata-mondiale-contro-omofobia/

https://www.sistemacritico.it/arte-organizzazione-del-tempo/

Share.

About Author

Alice Mauri, gradarese, nata nel 1997. Sebbene le mie passioni siano la letteratura e la filosofia, sono laureanda in Informatica Applicata all'Università di Urbino Carlo Bo. Scrivo nella sezione di filosofia per Sistema Critico. Sfogo la mia passione per la scrittura e la poesia su un piccolo blog personale.

1 commento

  1. Pingback: Filosofia: l'utilità di essere "inutile" - Sistema Critico

Leave A Reply