Etica alla guida. Chi sceglie quando non decidiamo noi

La velocità con cui le auto a guida autonoma stanno facendo il loro ingresso sul mercato sta sorprendendo tutti. Ci avevano detto che avremmo dovuto aspettare ancora qualche anno, invece sono già l’attrazione di fiere ed esposizioni in tutto il mondo.

Prendo una rivista all’aeroporto per ammazzare il tempo. Devo affrontare più di 9 ore di volo con coincidenze per un totale di oltre 14 ore di viaggio e senza leggere non saprei cosa fare. Scelgo “The Internet of Things Magazine” una rivista sulle Smart industries che questo mese vede in copertina un primo piano di un’auto senza guidatore. Una immagine che, da brava donna stressata dal traffico di Roma, non vedo l’ora che si materializzi davanti ai miei occhi.

Oltre ad una serie di dati che mi fanno sembrare l’era delle navicelle autonome sempre più vicina, cosa che mi aggrada non poco, mi colpisce un articolo di una filosofa che analizza una serie di problematiche relative alla programmazione delle macchine. Il dubbio è legato alla scelta di orientare l’algoritmo che ci guida nel traffico in base ad un paradigma kantiano o benthamiano. Cosa vuol dire? Pensateci bene, perfino la macchina più intelligentemente programmata non può prevedere ogni possibile imprevisto che possa accaderci mentre guidiamo.

Di fronte a dilemmi di semplice soluzione, l’algoritmo con cui l’auto è programmata, saprà esattamente come comportarsi. Diminuirà la velocità in prossimità di un pericolo, ci farà schivare gli ostacoli in tempo dopo averli registrati con i propri sensori e con le giuste telecamere, tenderà a preservare l’incolumità dei viaggiatori il più possibile. Ma cosa succede se si troverà a scegliere tra la vita e la morte di uno dei viaggiatori, o di qualcuno al di fuori dell’abitacolo? Quando siamo alla guida agiamo d’istinto. E poi, ciò che succede è la conseguenza di scelte affidate al momento. Ma un algoritmo non si comporta così. Un algoritmo deve essere programmato prima e deve sapere cosa scegliere. L’istinto non c’entra. Di qui il dilemma.

Jeremy Bentham ci direbbe di programmare l’algoritmo in base alla massima utilità ricavabile dalla scelta. Quindi tra schivare un bambino o un anziano, sicuramente ci direbbe di programmare l’algoritmo per salvare il bambino che ha di fronte a sé una vita di possibilità rispetto ad un uomo anziano che ha ormai dato alla società tutto ciò che poteva dare. E questo vale, ovviamente, anche a costo del sacrificio di noi che siamo nell’abitacolo. Al contrario, Immanuel Kant ci direbbe che ogni vita ha un valore universale e quindi una tale scelta non può essere appannaggio di una macchina.

E noi, che sceglieremmo? Siamo pronti a programmare una macchina in questo modo? Io ci ho riflettuto ed ho capito che errore di valutazione per errore di valutazione, sarei comunque per conoscere in anticipo le conseguenze a cui la strada mi pone di fronte, ovvero con quale priorità è stata programmata. Forse perché, nonostante tutti i buoni propostiti, so che nel momento del bisogno, in quello in cui è la paura a farci decidere, probabilmente vincerebbe il mio istinto di conservazione su tutto. Cosa che non sempre è utile. Neanche per me stessa.

Ma voi? Voi, ci avete mai pensato?

Lascia un commento

*