När rootas den första självkörande bilen?

När rootas den första självkörande bilen?

En intressant diskussion pågår just nu om självkörande bilar och etik. Frågan rör hur en självkörande bil ska prioritera i svåra situationer och svaret beror på vilket perspektiv man har: Befinner du dig i eller utanför bilen? Min fråga blir om inte den som äger en självkörande bil kommer att vilja manipulera den för sin egen vinnings skull.

Först lite bakgrund, hoppa över den om du vill:

“Vår strategi är att bilen aldrig ska hamna i en situation där den tvingas välja att fatta den typen av moraliska beslut”, sade Erik Coelingh på Volvo personvagnar till Ny Teknik om Volvos approach till problemet för ett par månader sedan. Tesla uttalade sig i samma artikel och verkar ha en lite annan vinkel.

Popular Science gick djupare in de filosofiska frågorna i artikeln Who will the driverless cars decide to kill? Frågan i just den artikeln handlar alltså om vem en bil ska välja att köra ihjäl när den hamnar i en situation där den faktiskt måste välja.

En annan fråga handlar om vem som har ansvaret om en självkörande bil orsakar en olycka. Det har vi, har Volvo sagt till Popular Science.

Något djupare i frågorna gräver MIT Technology Review, läs om du har tid, det är intressant.

Om man funderar ett tag så inser man massor av svåra frågor om etik och moral att ta ställning till, samtidigt som det redan finns företag som pratar vitt och brett om sina tekniker. Man önskar att det var så enkelt som Asimovs robotiklagar, men nu när det är dags att skicka ut helt automatiska dödsmaskiner på vägarna känns de faktiskt lite förenklade.

Men vad är själva frågan?

Den korta versionen: Självkörande bilar kan komma att behöva fatta beslut om liv och död som måste baseras på moraliska principer. Det finns många tänkbara scenarier, men det viktigaste lär vara detta: Om bilen måste välja att köra ihjäl en person på trottoaren eller offra föraren, vad väljer den? Man kan anta att föraren är av en åsikt och personen på gatan av en annan. Här finns inga enkla svar, men som samhälle lär vi behöva ta ställning ganska snart.

Sen får vi inte glömma den här följdfrågan: Hur många dagar tar det efter att den första fullt autonoma självkörande bilen kommer ut på marknaden innan någon rootar den? Och när det har hänt, hur lång tid tar det innan man kan ladda ner firmware som låter dig ändra bilens beteende så att du gagnas på bekostnad av andra trafikanter? Den bil som skulle offra dig i en olyckssituation agerar annorlunda och räddar ditt liv, men någon annan dör. Det här är ganska stora frågor. 

Det finns självklart otaliga andra möjligheter för den som vill hacka sin självkörande bil. Vill du köra fortare? Programmera den att köra för fort och ställ in hur mycket för fort du vill köra och när. Eller programmera den att köra mer aggressivt. Kanske gillar du inte zebralagen eller vill köra mot rött när det inte finns bilar i närheten. Allt är möjligt.

För mig som passionerad programmerare är det tydligt att bilintresserade och datorintresserade människor har någonting gemensamt: Vi måste testa allt och använda sånt vi redan har för att skapa något nytt, coolare och bättre. Något annat jag har lärt mig under åren är att om något är möjligt att göra, så kommer det att göras. Ta det axiomet och lägg till de etiska frågorna ovan så har du en helt ny uppsättning utmaningar. För om en självkörande bil gör något som någon kunnig och nyfiken människa, eller marknaden, inte gillar, så kommer en lösning på problemet snart att dyka upp.

 

 

ESET_testa-gratis

 

Missa inget!

Prenumerera på Säkerhetsbloggen via e-post!

No comments

Your email address will not be published.