E se le auto robot fossero programmate per ucciderti?

By -

L’Innovazione e lo sviluppo passano anche da qui!

E se l’auto robot fosse programmata per ucciderti?

Immaginate di essere responsabile del selettore su una rotaia che si sdoppia.

L’espresso proveniente da Chissàdove e diretto Laggiù è previsto in arrivo da un momento all’altro; ma come si guarda lungo la linea si vede che uno scuolabus pieno di bambini è in stallo al passaggio a livello. Nessun problema; è per questo che hai il selettore: lo metti sull’altra linea. Ma di là ci sono più problemi: tua nonna, che è venuto a lavorare con te, è caduta sui binari e non può alzarsi. Questo interruttore può salvare vostra nonna o un autobus pieno di altri bambini, ma non entrambi. Che cosa fai?

Questo puzzle di etica è comunemente noto come THE TROLLEY PROBLEM. È un argomento in corsi di filosofia e di etica, perché la risposta la dice lunga su come si vede il mondo. Recentemente però la teoria ha abbracciato un altro sviluppo pratico: i veicoli autonomi. Le automobili auto-guidate di Google hanno già guidato 1.700 mila miglia sulle strade americane, e non sono mai stati la causa di un incidente, dice l’azienda. Volvo dice che avrà un modello di auto-guida sulle autostrade svedesi entro il 2017. Elon Musk dice che la tecnologia è così vicina che potrebbe mettere un modello sul mercato giù dal prossimo anno.

Chi guarda gli osservatori?

La tecnologia può essere arrivata, ma siamo pronti?

Le auto di Google possono già gestire i rischi del mondo reale, come quando le automobili improvvisamente deviando di fronte a loro. Ma in alcune situazioni, un incidente è inevitabile. (In realtà, le auto di Google sono state coinvolte in decine di incidenti minori, tutti di cui la società incolpa sui conducenti umani.) In che modo una macchina di Google, o di un ultra-safe Volvo, possono essere programmate per gestire una situazione senza possibilità di vittoria dove si deve scegliere tra andare contro il traffico in arrivo o guidare direttamente in un muro per evitare la strage? I computer saranno certamente abbastanza veloci per dare un giudizio ragionato in pochi millisecondi. Dovrebbero avere tempo per esaminare le macchine davanti e identificare la soluzione con più probabilità di sopravvivenza ad una collisione, ad esempio, o quella con più altri umani coinvolti. Ma dovrebbero essere programmate per prendere la decisione che è meglio per i loro proprietari? O la scelta che fa il minimo male – anche se questo significa la scelta di sbattere contro un muro di contenimento per evitare di colpire uno scuolabus in arrivo? Chi si prenderà l’onere di decidere quale scelta adottare?

Voi comprereste un’auto che non fa i vostri interessi, anteponendo quelli altrui?

Ma accettereste un computer che fa esclusivamente gli interessi del proprietario, alla fine?

“In ultima analisi, il problema ricade in una scelta tra l’utilitarismo e deontologia”, ha detto Ameen Barghi, studente dell’University of Alabama and Birmingham. Barghi, che si è laureato in maggio ed è diretto a Oxford questo autunno come terzo Rhodes Scholar della UAB, non è estranea a dilemmi morali. Era un leader senior della squadra bioetica Bowl UAB, che ha vinto il campionato nazionale 2015. I loro dibattiti vincenti inclusi temi come l’uso di test clinici per il virus Ebola e l’etica di un farmaco ipotetico che potrebbe far innamorare le persone. Nel concorso Etica Bowl dello scorso anno, la squadra ha sostenuto un’altra domanda provocatoria relativa a veicoli autonomi: se si rivelassero molto più sicuri rispetto alle auto normali, sarebbe giusto impedire agli uomini di guidare i veicoli?(La loro risposta, in poche parole, è stata: sì.)

Quindi, la vostra auto quale approccio dovrebbe preferire? Il muro o il traffico? Ci sono due, di nuovo, approcci filosofici a questo tipo di domanda, dice Barghi. “L’utilitarismo ci dice che dobbiamo sempre fare ciò che produrrà la più grande felicità per il maggior numero di persone”, ha spiegato. In altre parole, se si tratta di una scelta tra voi, disegnati su un muro di cemento, o bambini all’interno di un autobus scolastico, la macchina deve essere programmataper sacrificarvi.

La deontologia, d’altro canto, sostiene che “alcuni valori sono semplicemente categoricamente sempre inviolabili”, ha continuato Barghi. “Per esempio, l’omicidio è sempre sbagliato, e noi non dovremmo mai commetterlo”. Tornando al problema del carrello, “anche se si spostasse il carrello in modo da salvare cinque vite, non dovremmo farlo perché staremmo scientemente uccidendo un’altra persona”. E, nonostante le probabilità, una macchina auto-guidata non dovrebbe essere programmata in modo da decidere di sacrificare il suo conducente pur di tenere fuori gli altri dal pericolo.

Ogni variante del problema trolley – e ce ne sono molti: cosa succederebbe se la persona fosse il vostro bambino? Il tuo unico figlio? Cosa succederebbe se le cinque persone fossero assassini? – Probabilmente bisognerebbe chiedere all’utente di selezionare la modalità di scelta. Se la risposta è utilitarista, allora c’è un’altra decisione da prendere: se questa debba essere la regola generale oppure particolare.

“La regola l’utilitarista dice che dobbiamo sempre scegliere l’azione più utile a prescindere dalle circostanze – quindi questo sarebbe fare la scelta easy per ogni versione del problema trolley”.

Ma agire in modo utilitarista, ha continuato, “dice che dobbiamo considerare ogni singolo atto come azione sottoinsieme separato.” Questo significa che non ci sono regole ferree: ogni situazione è un caso a sè. Quindi, come mai potrà essere programmato un computer con una regola del genere?

 

 

Ovviamente un caso del genere sarebbe pensato in un periodo di transizione, visto che tutte le auto automatiche potrebbero comunicare tra di loro per evitare simili situazioni con pochi millisecondi di anticipo.

3 Comments to E se le auto robot fossero programmate per ucciderti?

    Lascia un commento

    Il tuo indirizzo email non sarà pubblicato.