contadores Skip to content

MIT testar internetanvändare för att definiera ”moral” hos självkörande bilar

mit-morale-ia-voiture-autonome-1

Forskare från det berömda Massachusetts Institute of Technology (eller MIT) försöker utveckla en moralisk ram för beslutsfattande för självkörande bilar; det är med andra ord en fråga om att veta om, i en situation där en autonom bil inte kan undvika att döda fotgängare eller passagerare, vilken typ av beslut är det mest ”moraliska”….

Och för att skapa en referent av gemensam moral (och särskilt “genomsnitt”), har MIT inrättat Maskinmoral, ett slags sjukligt litet spel som kan spelas online, där man till exempel måste välja om den autonoma bilen ska rusa rakt in i en grupp barn och gamla människor eller tvärtom flytta till den närliggande väggen … och döda alla dess åkande .

mit-moral-ia-autonom-car-1

De föreslagna scenarierna är särskilt störande och hänvisar till hans eget personliga medvetande: om jag går för dessa två joggare snarare än på de tre lätt belagda personerna, betyder det inte att jag gynnar mitt val på den fysiska formen för de personer som är inblandade i olyckan? Om jag väljer kvinnor istället, beror det inte på att jag i dem ser möjligheten att de en dag blir mödrar (även om det naturligtvis inte är obligatoriskt ..)? Och om jag systematiskt offrar en grupp hundar och katter för livet för ett enda barn, är det inte ett bevis på att jag i slutändan, och även när jag dyrkar djur, alltid privilegierar människor?

mit-moral-ia-autonom-car

I slutet av testet har vi rätt till en liten bedömning: vem vi föredrar att spara, om antalet offer är viktigare för oss än deras “natur”, om vi gynnar ett kön framför det andra, om vi räddar ibland djur eller om vi tvärtom systematiskt offrar dem framför människor etc. Mycket lärorikt för sig själv, och utan tvekan ännu mer för konstruktörerna av AI för framtida 100% autonoma bilar, som utan tvekan kommer att behöva hantera dessa typer av tragiska situationer.