Bilverkstad Bromma: Du beslutar vem som ska köras ihjäl av en självkörande bil

Moral machine - Bilverkstad Bromma

Klassisk moralfilosofi är i centrum när mjukvaror som styr självkörande bilar tas fram. En bil i hög fart som är på väg att krocka med dödlig utgång för passagerarna måste välja om dessa ska räddas eller om några intet ont anande fotgängare ska offras. MIT i USA försöker utreda din moral. 

Text: Bilverkstad Bromma – Bild från studien ”Moral Machine”

Forskare vid Massachusetts Institute of Technology (MIT) driver ett projekt kallat ”Moral Machine” för att ta reda på vad allmänheten anser är korrekt för en självkörande bil i moralisk kris i situationer där det är oundvikligt att någon skadas eller dödas.

Maria Dahlin som skriver om ”Moral Machine-projektet” för Vi Bilägare frågar:

”Om till exempel fotgängare går mot rött och bilen kommer att krascha in i en betongvägg om den väjar, ska den då välja att rädda passagerarna i bilen eller de utanför bilen?”

Funderingar kring denna typ av moralfilosofi har funnits sedan de gamla grekerna och de tog fart på 60-talet i Sverige och nu har ämnet fått hög aktualitet igen i och med de autonoma bilarna.

”Moral Machine-projektet” är utformat som ett online-spel där allmänheten kan delta och där fatta sina egna beslut vid moraliskt svåra trafikscenarier och resultaten är inte speciellt uppmuntrande.


MIT-forskarna konstaterar att 76% av respondenterna vill att självkörande fordon ska rädda så många som möjligt och offra den som sitter i bilen, men samma personer ville inte själva köpa en sådan bil.


Filosofiskt vill alltså de flesta att bilar ska minimerar dödsfallen, men samtidigt att bilen ska rädda dem själva till varje pris, säger Iyad Rahwan som ligger bakom studien.

Studien har ackumulerat 11 miljoner scenarier och data visar att de flesta hellre räddar yngre människor och kvinnor och samtidigt hellre offrar män och äldre personer.

Du kan själv testa din egen moral i Moralmaskinen

Text: Bilverkstad Bromma