Home Mens en techniek Het nieuwe gezicht van AI
Mens en techniek

Het nieuwe gezicht van AI

Kunstmatige intelligentie is overal en kan dingen die het menselijke brein niet kan. Wat zeggen de nieuwste zelflerende technieken over ons eigen denken?

Door Stefan Buijsman op 20 augustus 2021

kunstmatige intelligentie ai niet bestaand Niet-bestaand gezicht gemaakt door een algoritme. Beeld thispersondoesnotexist.com

Kunstmatige intelligentie is overal en kan dingen die het menselijke brein niet kan. Wat zeggen de nieuwste zelflerende technieken over ons eigen denken?

Cover van 09-2021
09-2021 Filosofie magazine Lees het magazine

Dit artikel krijgt u van ons cadeau

Wilt u onbeperkt toegang tot de artikelen op Filosofie.nl? U bent al abonnee vanaf €4,99 per maand. Sluit hier een abonnement af en u heeft direct toegang.

Je komt tegenwoordig vrijwel overal kunstmatige intelligentie tegen. Spraakassistent Siri van Apple, het programma SyRi (‘Systeem Risico­indicatie’) waar de toeslagenaffaire om draait, maar ook deepfakes en automatisch geschreven nepnieuws – achter al die technieken zit een algoritme. De opmars van deze technologie levert nieuwe filosofische vraagstukken op. Die gaan niet alleen over menselijke intelligentie, die we op computers met nog maar weinig succes verwoed proberen na te bootsen, of over existentiële risico’s in een verre toekomst waarin robots de wereld overnemen. Kunstmatige intelligentie stelt ons denken ook al behoorlijk op de proef in de alledaagse praktijk, waar we moeten werken met de nog lang niet perfecte algoritmes die we nu hebben (denk aan Amazons gezichtsherkenning die zwarte Amerikaanse Congresleden verwarde met criminelen). Vrijwel alle uitdagingen waarvoor we ons door kunstmatige intelligentie gesteld zien, zijn te herleiden tot de werking van algoritmes. Daarom trappen we deze serie af met een crash course over wat er veranderd is aan kunstmatige intelligentie waardoor het zo’n onderwerp van gesprek is geworden.

Geldautomaat

Er wordt al sinds 1956 aan kunstmatige intelligentie gewerkt. De vroege algoritmes, de chatbot ELIZA uit de jaren zestig (waar je online nog altijd mee kunt praten) en zelfs het schaakprogramma dat in 1997 wereldkampioen Garri Kasparov versloeg, bestonden uit expliciete regels die de reactie van ELIZA voorschreven of de volgende schaakzet bepaalden. Mensen bedachten die regels stuk voor stuk en de computer liep ze braaf af. Wat het programma deed en waarom, was voor iedereen inzichtelijk. Natuurlijk waren er ethische vragen over het gebruik van die programma’s, maar gemiddeld genomen werkten ze niet efficiënt of goed genoeg om wijdverspreid te worden. Tenzij je een geldautomaat wilt rekenen tot kunstmatige intelligentie.

Algoritmes beginnen met willekeurige berekeningen, ze doen maar wat

De grote sprong voorwaarts kwam pas aan het begin van de twintigste eeuw, met de machine learning-aanpak: het ‘zelflerende’ algoritme waar je een heleboel data in stopt, in de hoop dat er een zinnig antwoord uit komt. Dat moet, omdat het voor veel problemen ontzettend lastig is om expliciete regels te bedenken die de computer stap voor stap voorschrijven hoe je een intelligente beslissing neemt: hoe herken je een kat op een plaatje? Hoe beslis je welke kandidaat je aanneemt? De oplossing is dus: een hoop data in een zogenoemd neuraal netwerk. Hoe de netwerken van de meest baanbrekende programma’s precies werken is voor nu niet zo belangrijk, maar feitelijk is het een geordende manier om miljoenen tot miljarden berekeningen uit te voeren. Dat moeten dan wel de goede berekeningen zijn om bij de juiste uitkomst te komen – die kandidaat moeten we hebben! Maar hoe zorgen we daarvoor als we zelf niet weten welke berekeningen dat zijn?

Meer lezen over de filosofische vragen rondom kunstmatige intelligentie? Schrijf je in voor de gratis nieuwsbrief:

Meld u aan voor onze nieuwsbrief

Ontvang elke woensdag het laatste filosofie nieuws, de beste artikelen van de week en af en toe een aanbieding.
Ontvang wekelijks het laatste filosofienieuws, de beste artikelen en af en toe een aanbieding.

Daar komt het ‘zelflerende’ gedeelte om de hoek. Algoritmes beginnen met volledig willekeurige berekeningen – kortom, ze doen maar wat. Bij elk stukje data geven ze een antwoord, dat getoetst wordt aan een (door mensen ingevoerde) juiste uitkomst. Zat het algoritme ernaast? Dan berekent een tweede programma hoe de berekeningen anders hadden gemoeten, zodat het de volgende keer dichter bij het juiste antwoord zit voor dat specifieke voorbeeld. Herhaal dit duizenden, miljoenen keren en dan zal het algoritme het bijna altijd goed doen – voor de voorbeelden waar het mee getraind is. Dit leerproces maakt het mogelijk om deepfakes te maken, of een spraakassistent als Siri, maar het lijkt dus totaal niet op dat van ons.

Leerproces

Na duizenden voorbeelden verwerkt te hebben die miljoenen berekeningen hebben aangepast zijn wij ten slotte de tel kwijt. Zelfs al zou je al die rekenstappen wel kunnen volgen, wat betekent het dan precies dat bijvoorbeeld die ene pixel met 0,6 vermenigvuldigd wordt en daarna samengeraapt wordt met de waarden van allerlei andere pixels om te concluderen dat het een kat is? We hebben nauwelijks grip op het proces in zo’n algoritme. Dat gebrek aan transparantie, waar ik de volgende aflevering uitgebreider op terugkom, is onder andere een probleem omdat die kunstmatige intelligentie lang niet altijd leert wat je zou willen. Een zelfrijdende auto kan een witte vrachtwagen aanzien voor een wolk, maar kan (nog veel gekker) ook een scooter die een wheelie maakt verwarren met een parachute. Een libelle op een gele schep wordt herkend als een banaan, en zo gaan de komische fouten nog een tijdje door. Al die fouten komen doordat het algoritme niet de juiste patronen uit de data heeft gehaald. Deels doordat het (bijvoorbeeld) nooit foto’s heeft gezien van een scooter die op zijn achterwiel balanceert, maar ook deels omdat dat leerproces lang niet zo goed werkt als bij mensen. Zonder enig inzicht in de werking van het algoritme is het dus lastig om op dergelijke fouten te anticiperen. Maar ja, hoe zorg je voor die transparantie en wat voor rol hoort die precies te spelen in onze omgang met algoritmes?

Wapensysteem

Algoritmes zijn in onze samenleving al volop in gebruik. En in dat gebruik liggen de uitdagingen. Als er programma’s zijn die beslissingen voorstellen – of zelfs nemen –die we niet goed snappen, is de mens dan nog wel verantwoordelijk? Valt er geen gat in verantwoordelijkheid, omdat de computer te dom is om de schuld te krijgen en tegelijkertijd de mens te ver verwijderd is van de beslissing om toerekeningsvatbaar te zijn? Sterker nog: hebben mensen wel altijd controle over wat een stuk kunstmatige intelligentie doet? Niet in de zin dat de computer plots voor zichzelf besluit om de mensheid uit te roeien, maar in een meer praktische context, waar bijvoorbeeld een autonoom wapensysteem zelf een doelwit zoekt. Wij kiezen ervoor om het systeem aan te zetten en het doet niets anders dan waarvoor het geprogrammeerd is, maar bepalen wij echt wat de uitkomsten zijn?

Een zelfrijdende auto kan een witte vrachtwagen aanzien voor een wolk

Steeds maakt het zelflerende aspect van moderne kunstmatige intelligentie het lastig. We weten niet goed wat die leert, houden er slechts met moeite controle over en moeten anticiperen op mogelijk discriminerende patronen die de computer uit de data oppikt en kan versterken. Tegelijkertijd voorziet AI in veel nieuwe mogelijkheden. Spraakassistenten, maar ook programma’s om wereldwijd illegale visserij op te sporen of rampgebieden in enkele seconden in kaart te brengen via satellietbeelden zijn alleen mogelijk dankzij deze kunstmatige intelligentie. Daarom is het de moeite waard om de filosofische implicaties van kunstmatige intelligentie onder de loep te nemen, en te kijken hoe wij verantwoord om kunnen gaan met deze techniek.