Log in

Wachtwoord vergeten?

Word lid Log in Contact

Filosofie.nl

Filosofie Magazine nr. 12/2021

Waarom het problematisch is dat algoritmes geen schuldgevoel hebben

Stefan Buijsman

Kunstmatige intelligentie is overal en kan dingen die het menselijke brein niet kan. Maar wie is er verantwoordelijk voor beslissingen die algoritmes nemen? Deel 4 van een serie.

Stel je voor: je zit in een zelfrijdende Tesla die tegen een stilstaande politieauto botst. Wie krijgt er dan de schuld van de botsing? De computer aan boord van de auto of jij, hoewel jij niet reed? In de Verenigde Staten is deze situatie al meerdere keren voorgekomen. Momenteel krijgt de bestuurder de schuld: die had maar beter moeten opletten en tijdig moeten ingrijpen. Maar wat als zelfrijdende auto’s ooit zo goed zijn dat het toegestaan is om tijdens het rijden een dutje te doen? Ook dan zullen er ongelukken zijn. Maar wie is er dan verantwoordelijk?

Het is een logische gedachte dat de computer dan de schuld krijgt; die heeft immers alle keuzes gemaakt. Maar kunnen we computers wel echt de schuld geven? Is het een fout van de rekenmachine als er 2+2=3 op het scherm staat? Waarschijnlijk niet; het valt eerder te wijten aan de programmeur, die iets over het hoofd heeft gezien. Een rekenmachine denkt tenslotte niet werkelijk na over een antwoord, maar volgt simpelweg de geprogrammeerde instructies op.

Hetzelfde geldt voor de huidige kunstmatige intelligentie. Die is niet meer dan een reeks instructies voor berekeningen die de computer moet uitvoeren. Die berekeningen hebben als effect dat ze intelligent gedrag imiteren, maar ze volgen daarbij absoluut niet hetzelfde denkproces als wij. Berekeningen maken bijvoorbeeld geen morele afwegingen en zijn zich niet bewust van hun fouten. Algoritmes hebben geen schuldgevoel en kunnen hun gedrag niet zelfstandig verbeteren. Wil je dat ze het een volgende keer anders doen, dan zal een programmeur een tweede programma moeten aanzetten dat de berekeningen van het algoritme aanpast. Dat maakt het een vreemde situatie: kunstmatige intelligentie kan, als wij dat toestaan, zelfstandig keuzes maken (zoals hoeveel gas een auto geeft), maar kan niet zelfstandig bijsturen als die keuzes fout blijken te zijn. Terwijl juist die mogelijkheid tot reflectie door filosofen als Harry Frankfurt essentieel geacht wordt voor verantwoordelijkheid kunnen nemen. Volgens hem is iemand pas verantwoordelijk als de actie een respons is op onderliggende redenen. Bijvoorbeeld: als automobilist wijk je uit voor een voetganger met als reden letsel te voorkomen, en daarom doe je dat dus ook voor een fietser. Een algoritme kan die tweede denkstap niet uit zichzelf maken en wijkt ook niet uit wegens een moreel besef of een bepaalde redenering. Het gebrek daaraan is de reden dat computers geen verantwoordelijkheid kunnen dragen.

Menselijke onmacht

Naar wie moet de vinger dan wijzen bij een fout van een algoritme? In elk geval naar een persoon. Maar het is niet direct duidelijk naar wie dan precies. Als jij in de toekomst een dutje mag doen in je Tesla, hoe kun jij dan verantwoordelijk worden gehouden voor een aanrijding? Het is oneerlijk om de schuld te krijgen als er expliciet gezegd is dat je niet langer op de weg hoeft te letten.

Is het een fout van de rekenmachine als er 2+2 = 3 op het scherm staat?

Ook bij bijvoorbeeld de toeslagenaffaire kun je lastig de medewerker die op het einde op de knop drukte, en daarmee instemde met de suggestie van het algoritme, de schuld geven. Vaak wordt een beslissing niet volledig als geautomatiseerd gezien, omdat er op het einde een mens moet controleren of de computer het wel goed heeft. Maar die mensen missen de benodigde informatie (en tijd) om kritisch op de gevallen in kwestie te reflecteren. In de praktijk zie je dat mensen afhankelijk worden van de computer en niet kunnen ingrijpen, en daarmee niet echt verantwoordelijk zijn voor de gemaakte keuzes.

Dat de gebruikers – in veel gevallen – niet als schuldigen zijn aan te wijzen komt doordat deze systemen vaak zo ontworpen zijn dat ze niet passen bij twee criteria voor verantwoordelijkheid die je bij Aristoteles al tegenkomt: de mogelijkheid om de uitkomst te veranderen en het vermogen – inclusief de kennis – om die verandering in de gewenste richting te laten plaatsvinden. Gebruikers missen die kennis, waardoor er nog maar één optie overblijft: de makers van het algoritme als schuldigen aanwijzen. Het achterliggende idee is dan: een algoritme is een product dat gebruikt wordt, en bedrijven moeten zorgen dat het degelijk werkt. Tesla had de software beter moeten maken als beweerd wordt dat hun auto’s zelfstandig kunnen rijden. En softwareleveranciers moeten hun algoritmes zo ontwerpen dat die bijvoorbeeld niet discrimineren op nationaliteit.

Is het probleem met deze uitkomst opgelost? Niet helemaal. Want de leverancier en de programmeurs kunnen net zo goed zeggen dat ze niet het vermogen hebben om fouten te voorkomen of op te lossen, omdat het ontzettend lastig is om te achterhalen waarom een algoritme een bepaalde beslissing neemt. Dat maakt het ingewikkeld om te anticiperen op het gedrag van een algoritme en om het bij te sturen. Kunnen die programmeurs zich niet net zo goed beroepen op een gebrek aan haalbare opties om de crash te voorkomen?

Berekeningen maken geen morele afwegingen

Het idee dat een algoritme zelf geen verantwoordelijkheid kan dragen en alle betrokken mensen te weinig weten om de schuld te krijgen is uitgegroeid tot een flink probleem in de filosofie. Wat als er gaten ontstaan in de verantwoordelijkheid voor bepaalde beslissingen, waardoor situaties optreden waarin niemand verantwoordelijk is?

Maatstaf

Of die situaties werkelijk kunnen ontstaan is nog maar de vraag. Alhoewel specifieke fouten lastig te voorspellen zijn, is het algemeen bekend wat de beperkingen van algoritmes zijn en weten we steeds meer over de interactie tussen kunstmatige intelligentie en de mensen die ermee moeten werken. Daarom kunnen besluitmakers lastig verantwoorden dat ze er wel voor hebben gekozen om algoritmes in te zetten om beslissingen te nemen, maar niet over de bijbehorende beperkingen hebben nagedacht.

De mensen die besloten hebben om algoritmes te gebruiken, zouden dus in de meeste gevallen verantwoordelijk moeten zijn. Al zijn zij het misschien niet alleen. Ook de teams die het programma ontwikkelen en implementeren zouden een deel van de schuld kunnen krijgen, omdat ook hun acties een verschil kunnen maken. De verantwoordelijkheid verdwijnt daarmee als het goed is niet, maar is wel lastig te herleiden en te specificeren. Wie krijgt uiteindelijk hoeveel verantwoordelijkheid?

Een idee dat hierbij zou kunnen helpen is dat je verantwoordelijkheid nooit groter is dan de controle die je hebt over de techniek. Frankfurts stelling is dat acties moeten afhangen van rationele overwegingen. Wiens overwegingen dat zijn, dat is de vraag. Die persoon heeft uiteindelijk de controle over wat er gebeurt. Zo kan controle een maatstaf zijn voor verantwoordelijkheid.