C’è un "codice della morte" nell’auto senza pilota





Comprereste mai una macchina a guida autonoma che in qualche riga del suo algoritmo abbia scritto di uccidere il “pilota-passeggero” per salvere dei pedoni? La risposta è facile, ovvio, ma il concetto di “male minore” è alla base del funzionamento della self driving car che viaggia seguendo un codice di comportamento ben preciso. La “scelta” della macchina sarebbe quindi inevitabile se di colpo si trovasse davanti un gruppo di pedoni sbucati all’improvviso da un’uscita laterale: sterzerebbe all’improvviso – ferendo gravemente o uccidendo – il suo unico occupante per salvare il gruppo. La manova, va detto, incosapevolmente la compiono tutti gli automobilisti, che spesso muoiono solo per evitare una busta di plastica o un animale che attraversa. Nelle scuole di pilotaggio insegnano a non deviare la traiettoria quando ci si trova davanti un cane o un ostacolo improvviso piccolo: quasi sempre si finirebbe per morire entrambi. Ma è una manovra difficile, contro natura.

Per leggere il resto dell’articolo devi collegarti direttamente sul sito della fonte:








Continua

Pubblicato il: 1 Luglio 2016

Potrebbero interessarti anche»