Home Mens en techniek Een algoritme heeft geen noodrem, en dat is een probleem
Mens en techniek

Een algoritme heeft geen noodrem, en dat is een probleem

Kunstmatige intelligentie is overal en kan dingen die het menselijke brein niet kan. Maar zelfs als slimme technologie en algoritmes onze wereld bepalen, beschikken wij nog steeds over een vrije wil. Het vijfde deel van een serie.

Door Stefan Buijsman op 24 december 2021

Een algoritme heeft geen noodrem, en dat is een probleem
Cover van 01-2022
01-2022 Filosofie magazine Lees het magazine

Dit artikel krijgt u van ons cadeau

Wilt u onbeperkt toegang tot de artikelen op Filosofie.nl? U bent al abonnee vanaf €4,99 per maand. Sluit hier een abonnement af en u heeft direct toegang.

Algoritmes werken lang niet altijd zoals we willen. Ze kunnen fouten maken en allerlei ongewenste effecten hebben. Daar liep de taxi-app Uber in 2014 tegenaan toen er in Sydney een gijzeling was bij een café in het centrum. Logischerwijs wilden mensen die plek ontvluchten, waardoor ze massaal in de Uber-app keken voor een rit naar huis of naar een andere veilige plek. Het algoritme pikte die enorme toename in verzoeken op en verhoogde de prijzen sterk, waardoor je tegen de 100 euro moest betalen om opgepikt te worden. Na hevige kritiek achteraf werden die kosten wel vergoed, maar op het moment zelf konden de automatische effecten van het algoritme nog niet worden gecor­rigeerd. Het was heel handig geweest als Uber-medewerkers op dat moment op een knop hadden kunnen drukken om het algoritme te stoppen.

Controle

Dit soort voorvallen roept vragen op. Hebben we wel controle over de algoritmes die we gebruiken? En kunnen we iets doen om zulke situaties te voorkomen? Een noodrem in de vorm van een stopknop, waarmee je automatische beslissingen kunt uitzetten, zou misschien helpen. Maar idealiter willen we het algoritme kunnen bijsturen in plaats van uitzetten.

Als er eenmaal zo’n stopknop is, is het bovendien nog de vraag of mensen in staat zijn adequaat in te schatten wanneer ze die moeten gebruiken. Uber kwam in 2017 bij een aanslag in Londen weer te laat in actie. Het algoritme was wederom op hol geslagen door de vele mensen die het centrum wilden ontvluchten. Ditmaal was er wél een stopknop, maar daar werd pas na drie kwartier op gedrukt.

Ook bij zelfrijdende auto’s is het lastig voor mensen om in te schatten wanneer er ingegrepen moet worden. Het idee is dat die auto’s op een gegeven moment bijna alles zelf kunnen, waardoor je niet constant hoeft op te letten. Alleen heel af en toe is menselijk ingrijpen nodig. Maar juist dat blijkt lastig: wij zijn vreselijk slecht in opletten als we (vrijwel) niets hoeven te doen, en gaan dan vanzelf dagdromen of iets anders doen. Mensen reageren in die gevallen ontzettend traag; het vereist een behoorlijke inspanning om de focus terug te krijgen op de weg. Dus al kun je als bestuurder de rem intrappen of een ruk aan het stuur geven, in een zelfrijdende auto is het verre van makkelijk om daar effectief gebruik van te maken.

Vrije wil

Het is dus niet afdoende om enkel een manier te hebben om de uitkomst van een algoritme te beïnvloeden, zoals met een stopknop. Gelukkig zijn er ook andere definities van ‘controle’. Grappig genoeg zijn die geput uit de filosofische literatuur over determinisme – een leer die zegt dat alles wat gaat gebeuren al door natuurwetten is vastgelegd.

Zo beargumenteren de zogenoemde compatibilisten dat het ook in een gedetermineerde wereld mogelijk is om een vrije wil te hebben en verantwoordelijkheid te dragen, omdat je zelfs in die situatie nog vormen van controle hebt. Zij zoeken de mogelijkheid om anders te handelen niet in het daad­werkelijke vrij zijn om in de huidige situatie iets anders te doen – dat kan immers niet als de gang van zaken al vastligt – maar in het idee dat je iets anders had gedaan als de situatie anders was geweest. Daaraan koppelen zij de vrije wil.

Je kunt het vergelijken met de breekbaarheid van glas: glas noemen we breekbaar omdat het kan breken als het hard geraakt wordt. Maar als glas nog niet gebroken is, is het nog steeds breekbaar. Sterker nog, ook glas dat nooit breekt is breekbaar: het feit dat het stuk zou gaan als het een flinke klap krijgt, zorgt voor de breekbaarheid, ook als die klap nooit plaatsvindt.

Op soortgelijke wijze stellen compatibilisten dat mensen vrij kunnen zijn in een onvrije situatie, omdat ze anders zouden handelen bij andere omstandigheden. Je voornemen om anders te handelen als de situatie anders was geweest vinden zij ook een vorm van controle. Ook al kun je in de huidige situatie niets anders doen, je hebt alsnog enige vrije wil doordat je anders zou handelen als de situatie anders was.

Verandering

Deze notie van controle, waarbij wordt gekeken naar de respons van jouw gedrag op veranderende omstandigheden, is ook toe te passen op computers. Wat gebeurt er met de genomen beslissingen van een algoritme als de invoer verandert? Verandert het eindresultaat dan op de manier die wij willen?

Ethici Filippo Santoni de Sio en Jeroen van den Hoven stellen dat het algoritme moet volgen wat de redenen zijn van de personen die de controle hebben. Als de situatie verandert, waardoor zij een ander oordeel vellen, moet de uitkomst meeveranderen. Bijvoorbeeld: als er een aanslag blijkt te zijn, moet de toename in Uber-verzoeken niet gepaard gaan met prijsstijgingen. Daarvoor is het in de praktijk nodig om de verschillende uitkomsten te kunnen herleiden naar personen die niet alleen helder geformuleerde redenen hebben, maar ook de benodigde kennis en vaardigheden om daarnaar te handelen.

Oftewel: voor echte controle heb je een samenspel nodig waarin de uitkomsten gericht te beïnvloeden zijn en achteraf te traceren zijn naar menselijke keuzes. Maar hoe ziet dat er in de praktijk uit? Als een zelfrijdende auto elke seconde aan de bestuurder vraagt wat die denkt, schiet de auto zijn doel voorbij.

De bestuurder zal dus een deel van de controle uit handen moeten geven. Niet zozeer aan het algoritme, dat slechts uit een lange lijst computerinstructies bestaat, maar aan de ontwerpers ervan. Er bestaan trucs om ervoor te zorgen dat bestuurders van zelfrijdende auto’s meer controle houden. Zo kunnen ze alert worden gehouden door de snelheid van de auto in samenspel met de computer te bepalen: het algoritme stuurt dan de weerstand op het gaspedaal, maar de bestuurder moet het pedaal intrappen.

Versnelling

Je komt dan zonder echt te hoeven nadenken uit op de optimale stand en versnelling, maar – zo suggereren de eerste studies – blijft meer betrokken bij het rijden en kunt daardoor beter ingrijpen als de computer plots wegvalt of een fout maakt. Het systeem is net niet helemaal geautomatiseerd, waardoor de bestuurder iets te doen heeft en alerter blijft.

De hoeveelheid controle die we over algoritmes hebben, heeft grotendeels te maken met de rol die we algoritmes toebedelen. Het is vaak onvoldoende iemand enkel achteraf naar de beslissingen van de computer te laten kijken. Maar een taak­verdeling is mogelijk, waarbij bijvoorbeeld een computer de routinegevallen automatisch goedkeurt en de rest door mensen laat beoordelen.

Het is een uitdaging om die samenwerking goed te laten verlopen, maar het is zeker niet onmogelijk.