In menselijke oordelen zitten impliciete vooroordelen. Kunnen we daarom beter vertrouwen op berekeningen van computeralgoritmen?
Illustratie: Bas van der Schot
‘Steeds meer menselijke beoordelingstaken zullen we aan algoritmes uitleveren, bijvoorbeeld het automatisch beoordelen van cv’s bij sollicitaties of het detecteren van creditcardfraude’, vertelt filosoof Leon Geerdink, die onder meer onderzoek doet naar de ethiek van kunstmatige intelligentie. ‘Maar onkritisch gebruik kan grote maatschappelijke consequenties hebben. Denk bijvoorbeeld aan het algoritme dat Amerikaanse rechters gebruikten om de kans te berekenen dat veroordeelden opnieuw de fout in zullen gaan: dat onderschatte de kans op recidive bij blanke Amerikanen en overschatte die bij Afro-Amerikanen.
Onbedoeld coderen we soms menselijke vooroordelen in computeralgoritmen. We geven een algoritme een input van bijvoorbeeld cv’s en zeggen hoe de gewenste output eruit moet zien: wat geschikte kandidaten zouden zijn. De gevaarlijke vooronderstelling is dat die data objectief zouden zijn. Als daarin systematische menselijke vooroordelen zitten, herkent het algoritme die patronen en zal het automatisch exact die vooroordelen vertonen. Een groot probleem is dat algoritmen vanwege commerciële belangen vaak beschermd zijn. Niemand kan controleren wat een algoritme precies aan het berekenen is, waardoor kritisch onderzoek en verbetering moeilijk is.
Algoritmen zijn niet objectief, maar ze zijn óók niet kwaadaardiger dan mensen. Ze werken als een spiegel. Daarom kunnen we algoritmen juist gebruiken om onze eigen vooroordelen op te sporen.’
Dit artikel is exclusief voor abonnees