Home Mens en techniek Waarom het problematisch is dat algoritmes geen schuldgevoel hebben
Mens en techniek

Waarom het problematisch is dat algoritmes geen schuldgevoel hebben

Wie is er verantwoordelijk voor de beslissingen die algoritmes nemen?

Door Stefan Buijsman op 19 november 2021

Waarom het problematisch is dat algoritmes geen schuldgevoel hebben Een Tesla, links, crashte 29 mei 2018 in de automatische-pilootmodus op een geparkeerde surveillancewagen. Beeld bdtechtalks.com

Wie is er verantwoordelijk voor de beslissingen die algoritmes nemen?

Cover van 12-2021
12-2021 Filosofie magazine Lees het magazine

Dit artikel krijgt u van ons cadeau

Wilt u onbeperkt toegang tot de artikelen op Filosofie.nl? U bent al abonnee vanaf €4,99 per maand. Sluit hier een abonnement af en u heeft direct toegang.

Stel je voor: je zit in een zelfrijdende Tesla die tegen een stilstaande politieauto botst. Wie krijgt er dan de schuld van de botsing? De computer aan boord van de auto of jij, hoewel jij niet reed? In de Verenigde Staten is deze situatie al meerdere keren voorgekomen. Momenteel krijgt de bestuurder de schuld: die had maar beter moeten opletten en tijdig moeten ingrijpen. Maar wat als zelfrijdende auto’s ooit zo goed zijn dat het toegestaan is om tijdens het rijden een dutje te doen? Ook dan zullen er ongelukken zijn. Maar wie is er dan verantwoordelijk?

Het is een logische gedachte dat de computer dan de schuld krijgt; die heeft immers alle keuzes gemaakt. Maar kunnen we computers wel echt de schuld geven? Is het een fout van de rekenmachine als er 2+2=3 op het scherm staat? Waarschijnlijk niet; het valt eerder te wijten aan de programmeur, die iets over het hoofd heeft gezien. Een rekenmachine denkt tenslotte niet werkelijk na over een antwoord, maar volgt simpelweg de geprogrammeerde instructies op.

Is het een fout van de rekenmachine als er 2+2 = 3 op het scherm staat?

Hetzelfde geldt voor de huidige kunstmatige intelligentie. Die is niet meer dan een reeks instructies voor berekeningen die de computer moet uitvoeren. Die berekeningen hebben als effect dat ze intelligent gedrag imiteren, maar ze volgen daarbij absoluut niet hetzelfde denkproces als wij. Berekeningen maken bijvoorbeeld geen morele afwegingen en zijn zich niet bewust van hun fouten. Algoritmes hebben geen schuldgevoel en kunnen hun gedrag niet zelfstandig verbeteren. Wil je dat ze het een volgende keer anders doen, dan zal een programmeur een tweede programma moeten aanzetten dat de berekeningen van het algoritme aanpast. Dat maakt het een vreemde situatie: kunstmatige intelligentie kan, als wij dat toestaan, zelfstandig keuzes maken (zoals hoeveel gas een auto geeft), maar kan niet zelfstandig bijsturen als die keuzes fout blijken te zijn. Terwijl juist die mogelijkheid tot reflectie door filosofen als Harry Frankfurt essentieel geacht wordt voor verantwoordelijkheid kunnen nemen. Volgens hem is iemand pas verantwoordelijk als de actie een respons is op onderliggende redenen. Bijvoorbeeld: als automobilist wijk je uit voor een voetganger met als reden letsel te voorkomen, en daarom doe je dat dus ook voor een fietser. Een algoritme kan die tweede denkstap niet uit zichzelf maken en wijkt ook niet uit wegens een moreel besef of een bepaalde redenering. Het gebrek daaraan is de reden dat computers geen verantwoordelijkheid kunnen dragen.

Menselijke onmacht

Naar wie moet de vinger dan wijzen bij een fout van een algoritme? In elk geval naar een persoon. Maar het is niet direct duidelijk naar wie dan precies. Als jij in de toekomst een dutje mag doen in je Tesla, hoe kun jij dan verantwoordelijk worden gehouden voor een aanrijding? Het is oneerlijk om de schuld te krijgen als er expliciet gezegd is dat je niet langer op de weg hoeft te letten.

Ook bij bijvoorbeeld de toeslagenaffaire kun je lastig de medewerker die op het einde op de knop drukte, en daarmee instemde met de suggestie van het algoritme, de schuld geven. Vaak wordt een beslissing niet volledig als geautomatiseerd gezien, omdat er op het einde een mens moet controleren of de computer het wel goed heeft. Maar die mensen missen de benodigde informatie (en tijd) om kritisch op de gevallen in kwestie te reflecteren. In de praktijk zie je dat mensen afhankelijk worden van de computer en niet kunnen ingrijpen, en daarmee niet echt verantwoordelijk zijn voor de gemaakte keuzes.

Berekeningen maken geen morele afwegingen

Dat de gebruikers – in veel gevallen – niet als schuldigen zijn aan te wijzen komt doordat deze systemen vaak zo ontworpen zijn dat ze niet passen bij twee criteria voor verantwoordelijkheid die je bij Aristoteles al tegenkomt: de mogelijkheid om de uitkomst te veranderen en het vermogen – inclusief de kennis – om die verandering in de gewenste richting te laten plaatsvinden. Gebruikers missen die kennis, waardoor er nog maar één optie overblijft: de makers van het algoritme als schuldigen aanwijzen. Het achterliggende idee is dan: een algoritme is een product dat gebruikt wordt, en bedrijven moeten zorgen dat het degelijk werkt. Tesla had de software beter moeten maken als beweerd wordt dat hun auto’s zelfstandig kunnen rijden. En softwareleveranciers moeten hun algoritmes zo ontwerpen dat die bijvoorbeeld niet discrimineren op nationaliteit.

Wilt u elke week aan het denken gezet worden met de mooiste verhalen van Filosofie magazine? Schrijf u in voor de gratis nieuwsbrief:

Meld u aan voor onze nieuwsbrief

Ontvang elke woensdag het laatste filosofie nieuws, de beste artikelen van de week en af en toe een aanbieding.
Ontvang wekelijks het laatste filosofienieuws, de beste artikelen en af en toe een aanbieding.

Is het probleem met deze uitkomst opgelost? Niet helemaal. Want de leverancier en de programmeurs kunnen net zo goed zeggen dat ze niet het vermogen hebben om fouten te voorkomen of op te lossen, omdat het ontzettend lastig is om te achterhalen waarom een algoritme een bepaalde beslissing neemt. Dat maakt het ingewikkeld om te anticiperen op het gedrag van een algoritme en om het bij te sturen. Kunnen die programmeurs zich niet net zo goed beroepen op een gebrek aan haalbare opties om de crash te voorkomen?

Het idee dat een algoritme zelf geen verantwoordelijkheid kan dragen en alle betrokken mensen te weinig weten om de schuld te krijgen is uitgegroeid tot een flink probleem in de filosofie. Wat als er gaten ontstaan in de verantwoordelijkheid voor bepaalde beslissingen, waardoor situaties optreden waarin niemand verantwoordelijk is?

Maatstaf

Of die situaties werkelijk kunnen ontstaan is nog maar de vraag. Alhoewel specifieke fouten lastig te voorspellen zijn, is het algemeen bekend wat de beperkingen van algoritmes zijn en weten we steeds meer over de interactie tussen kunstmatige intelligentie en de mensen die ermee moeten werken. Daarom kunnen besluitmakers lastig verantwoorden dat ze er wel voor hebben gekozen om algoritmes in te zetten om beslissingen te nemen, maar niet over de bijbehorende beperkingen hebben nagedacht.

De mensen die besloten hebben om algoritmes te gebruiken, zouden dus in de meeste gevallen verantwoordelijk moeten zijn. Al zijn zij het misschien niet alleen. Ook de teams die het programma ontwikkelen en implementeren zouden een deel van de schuld kunnen krijgen, omdat ook hun acties een verschil kunnen maken. De verantwoordelijkheid verdwijnt daarmee als het goed is niet, maar is wel lastig te herleiden en te specificeren. Wie krijgt uiteindelijk hoeveel verantwoordelijkheid?

Een idee dat hierbij zou kunnen helpen is dat je verantwoordelijkheid nooit groter is dan de controle die je hebt over de techniek. Frankfurts stelling is dat acties moeten afhangen van rationele overwegingen. Wiens overwegingen dat zijn, dat is de vraag. Die persoon heeft uiteindelijk de controle over wat er gebeurt. Zo kan controle een maatstaf zijn voor verantwoordelijkheid.