Beslist de boordcomputer over leven en dood?
Zelfrijdende auto van Google. Foto: reuters
Wat als de zelfrijdende auto van morgen geprogrammeerd is om jou de dood in te jagen en niet een ander? Een louter filosofische kwestie? ‘Al lang niet meer’, waarschuwen specialisten in robotethiek.

Kan je een robot het verschil leren tussen goed en kwaad? Lange tijd leek deze vraag pure sciencefiction. Maar met de komst van zelfrijdende auto’s – Google kondigde vorig weekend aan dat het zijn robotauto nu ook in het gewone stadsverkeer gaat testen, buiten de bekende testzone – wordt kunstmatige intelligentie mobiel en bonkt de toekomst op onze voordeur.

Wat als plots een kind oversteekt?

Stel je maar eens voor: terwijl je nietsvermoedend in je zelfrijdende bolide door de groene buitenwijken van de stad zoeft, steekt plots een spelend kind de straat over. In theorie kan de zelfrijdende auto je nog wel waarschuwen. Maar als iemand langere tijd niet zelf hoeft op te letten, is de alertheid vaak ver te zoeken. Er is dan ook geen ontsnappen aan: een botsing is onvermijdelijk.

De enige vraag die rest is: wat doet de boordcomputer? Ethisch geprogrammeerde machines of voertuigen volledig autonoom laten functioneren op basis van eenzijdige rekenkracht is allerminst zonder risico.

Dat die vrees niet alleen terug te voeren is naar stoffige science fiction-verhalen, bleek recent nog uit een experiment van de Britse Universiteit van Bristol. Robotethicus Alan Winfield testte vorig jaar de reactie van robots op een vereenvoudigde versie van wet 1 van de robotica (een robot mag geen mens verwonden of dat laten gebeuren). Hij deed dat door een robot geprogrammeerd volgens de wetten van Asimov de opdracht te geven andere robots – die dienst deden als vervangers van echte mensen – te redden van een ‘dodelijke’ val in een gat.

Ethische zombie

Zolang de Asimov-robot maar één ‘menselijke’ robot moest redden ging alles goed. Maar toen het onderzoeksteam een tweede ‘menselijke’ robot toevoegde in het speelveld, ging het in 14 van de 33 gevallen volledig fout. De Asimov-robot raakte verlamd door morele keuzestress. Hij draalde zolang met het beslissen welke robot eerst te redden dat beide ‘menselijke’ robots telkens in het gat vielen.

Robotethici benadrukken dan ook dat robots geen echt moreel besef kunnen hebben. ‘Om een moreel besef van je daden te hebben, heb je een bewustzijn nodig. En dat heeft vandaag nog geen enkele robot. Het zijn niet meer dan een soort “ethische zombies” die door ons geprogrammeerd moeten worden’, zegt Axel Cleeremans, professor psychologie en ethiek aan de Brusselse ULB.

Wist je dat je ook zonder abonnement elke maand 3 betalende  plus-artikels kunt lezen?

Meld je aan en lees gratis ›

Vul je e-mailadres en wachtwoord in