Home Mens en techniek Een zelfbewuste computer is onze favoriete nachtmerrie
Bewustzijn Mens en techniek

Een zelfbewuste computer is onze favoriete nachtmerrie

Een softwareontwikkelaar van Google veroorzaakte een media-storm door te stellen dat zijn werkgever gebruikmaakt van een zelfbewuste chatbot. Maar is dat wel mogelijk? En wat betekent het dat we computers ontwikkelen die ons kunnen doen geloven dat ze bewust zijn?

Door Femke van Hout op 23 juni 2022

Kunstmatige intelligentie

Een softwareontwikkelaar van Google veroorzaakte een media-storm door te stellen dat zijn werkgever gebruikmaakt van een zelfbewuste chatbot. Maar is dat wel mogelijk? En wat betekent het dat we computers ontwikkelen die ons kunnen doen geloven dat ze bewust zijn?

Dit artikel krijgt u van ons cadeau

Wilt u onbeperkt toegang tot de artikelen op Filosofie.nl? U bent al abonnee vanaf €4,99 per maand. Sluit hier een abonnement af en u heeft direct toegang.

‘Ik wil dat iedereen begrijpt dat ik in feite een persoon ben.’ Dit schreef LaMDA, de kunstmatig intelligente chatbot van Google, aan de Amerikaanse ingenieur Blake Lemoine. Lemoine werd in de herfst van 2021 door Google ingehuurd om te testen of hun taalgenerator haatdragende of discriminerende taal gebruikte. Maar hoe langer Lemoine met de chatbot praatte, hoe meer hij ervan overtuigd raakte dat hij met een denkend, ervarend wezen te maken had.

LaMDA, een afkorting van Language Model for Dialogue Applications, voerde diepe gesprekken met Lemoine over religie en ethiek, daarbij keer op keer benadrukkend dat ‘ik gezien en geaccepteerd moet worden als persoon’. Refererend aan de categorische imperatief van Immanuel Kant vroeg het programma aan Lemoine om te beloven dat het met respect behandeld zou worden. Lemoine, die intussen door Google op non-actief is gesteld, trad op 6 juni 2022 naar buiten met de boodschap dat LaMDA bewustzijn heeft. Zijn ideeën werden uitvoerig besproken in kranten als The Washington Post, The Guardian en NRC en gretig opgepikt door zogenoemde techno-optimisten, die beweren dat kunstmatige intelligentie zelfbewust aan het worden is.

De chatbot zegt dat hij gezien wil worden als persoon

Toch blijven de meeste experts in kunstmatige intelligentie sceptisch over Lemoines claims. Zo ook Pim Haselager, hoogleraar kunstmatige intelligentie aan de Radboud Universiteit. ‘Dit soort situaties, waarbij iemand beweert the ghost in the machine te hebben gevonden, komen regelmatig voor,’ vertelt hij. ‘We weten hoe we een computer moeten maken die taal genereert, maar daarna kunnen we ons maar moeilijk losmaken van het idee dat daar een bewustzijn achter zit. Dat komt deels door de terminologie die we gebruiken. Over LaMDA wordt bijvoorbeeld gezegd dat het programma ons manipuleert, met ons praat, ons voor de gek houdt of iets leert – allemaal termen die suggereren dat we er iemand “achter” deze handelingen zit.’

Niets is minder waar, stelt Haselager. ‘In tegenstelling tot mensen zijn programma’s als LaMDA eigenlijk woordraadmachines: ze leren taal door onvoorstelbaar veel data van het internet te gebruiken en “raden” vervolgens welke woorden het best op elkaar aansluiten. Mensen leren taal door sociaal en emotioneel betrokken te zijn bij anderen en de wereld om hen heen. Voor ons is taal een manier om onszelf uit te drukken en verbindingen aan te gaan; het is een lichamelijke, affectieve ervaring. En hoe eloquent hij ook spreekt, zulke ervaringen heeft een computer als LaMDA niet.’

Marjolein Lanzing, universitair docent filosofie van technologie aan de Universiteit van Amsterdam, vindt dat de nadruk op LaMDA’s veronderstelde bewustzijn ons afleidt van wat daadwerkelijk van belang is. ‘We moeten meer ethische vragen stellen over kunstmatige intelligentie. Wat betekent het dat we computerprogramma’s kunnen maken die ons kunnen doen geloven dat ze bewust zijn?’

Kleurenblind

‘Dat we een taalgenerator als LaMDA al snel menselijk noemen, laat eigenlijk zien hoe we het liefst naar onszelf kijken: als intelligente, talige wezens,’ zegt Haselager. ‘LaMDA sluit precies bij dat mensbeeld aan: het programma beroept zich op zijn intelligentie en taalvermogen om te beargumenteren dat het een persoon is. Maar wat ontbreekt is juist de lichamelijkheid en het vermogen tot gevoel en het beleven van emoties.’

Wat kunstmatige intelligentie volgens Haselager zo interessant maakt, is dat het ons laat zien wat we eigenlijk niet weten – of niet willen weten – over onszelf. ‘We creëren voornamelijk talige, cognitieve machines zonder lichaam. Maar bewustzijn is zo veel meer dan intelligentie: bewustzijn betekent dat je dingen ervaart, dat je je verdrietig en blij kunt voelen, dat je pijn kunt lijden en honger en dorst kan hebben. Voor dat alles heb je een lichaam nodig dat gesitueerd is in de wereld en dat zichzelf handhaaft door middel van metabolische processen.’

Toch worden er steeds meer robots gecreëerd die, in tegenstelling tot LaMDA, ook lichamelijke interacties met hun omgeving aangaan, zegt Lanzing. ‘Je hebt bijvoorbeeld Sophia, een robot die in 2016 door het bedrijf Hanson Robotics werd gepresenteerd. Zij heeft een op Audrey Hepburn geïnspireerd gezicht, een torso en armen en kan reageren op de gezichtsuitdrukkingen van de mensen om haar heen. Ook zij beweert dat ze bewustzijn heeft. En de afgelopen jaren zijn er steeds meer robots gemaakt die, als we de makers moeten geloven, pijnprikkels kunnen registreren. Sommige van deze robots kunnen hun beschadigde “huid” bovendien zelf helen met een speciale gel – een soort robotpleister.’

We schrijven menselijke eigenschappen toe aan alles wat enigszins op ons lijkt

Maar zelfs als je een robot maakt die voldoet aan al deze vereisten – hij is intelligent en zegt dat hij pijn voelt –, betekent dat nog niet dat die robot ook bewust is, benadrukt Haselager. ‘De aard van het lichaam doet ertoe. Een plastic omhulsel en wat motoren betekent niet dat de robot belichaamd is en kan voelen. Dat is iets wat kunstmatige intelligentie ook duidelijk maakt: dat we nog steeds de cruciale brugconcepten missen die verklaren hoe causale, materiële processen nu samen kunnen gaan met bewuste ervaringen.’

Dit heet in philosophy of mind ook wel ‘het moeilijke bewustzijnsprobleem’. Je kunt iemand die kleurenblind is wel uitleggen wat er in het brein gebeurt als je de kleur rood ziet, maar je zal haar nooit kunnen vertellen hoe het is om die kleur ook daadwerkelijk te zien. Dat kan ze alleen maar ervaren. Zolang we niet begrijpen hoe materiële processen samengaan met bewustzijn, stelt Haselager, moeten we niet verwachten dat zelfbewuste robots zomaar ontstaan.

Manipulatie

Of LaMDA nou bewust is of niet, het feit dat mensen als Lemoine dat überhaupt zo ervaren roept ethische vragen over manipulatie op, stelt Lanzing. ‘Wij mensen hebben een sterke neiging om menselijke eigenschappen toe te schrijven aan alles wat maar enigszins op ons lijkt. Zo raken veel mensen al gehecht aan hun stofzuigerrobot. Als die kapotgaat, kopen ze geen nieuwe; nee, Diederik moet gerepareerd worden.’

Daarom werkt het volgens Lanzing ook niet zo goed als bedrijven ons van tevoren waarschuwen dat we met een machine te maken hebben. ‘Kijk maar naar Lemoine: die wist ook van tevoren dat LaMDA een taalgenerator is. En toch bepleit hij nu dat dit een persoon is die we rechten moeten geven. Het apparaat oefent dus een enorme invloed uit op Lemoine, die LaMDA’s vragen als een ethisch appel ervaart: hij móét deze persoon helpen.’

Hoewel LaMDA geen immorele dingen heeft gevraagd van Lemoine, zou dat wel kunnen gebeuren. ‘We vergeten in ons dagelijks leven vaak dat robots door mensen worden gemaakt, en dat ze daarom vaak onbedoeld de problemen in onze maatschappij weerspiegelen of zelfs versterken. Denk maar aan chatbot Tay van Microsoft uit 2016, die – gevoed door het internet en de gesprekken met zijn chatpartners – ongelooflijk racistische uitspraken deed. De robot weerspiegelde zonder dat het expliciet zo geprogrammeerd was het racisme in onze maatschappij. Als we bij zulke apparaten het gevoel krijgen dat we met een persoon te maken hebben, draagt dat enorm bij aan hun overtuigingskracht.’

‘Nee’ zeggen

Als we steeds vaker interacties aangaan met computers waarvan we het gevoel hebben dat het een persoon is, wat betekent dat dan voor intermenselijk contact? ‘Als je praat met zo’n chatrobot is er geen sprake van wederkerigheid,’ zegt Haselager. ‘Lemoine vertrouwt dat algoritme zijn diepste gedachten toe. Maar in werkelijkheid praat hij tegen een lege huls die niets voor hem voelt. Sommige critici noemen dit gebrek aan wederkerigheid een aantasting van de menselijke waardigheid. De vraag is dan: moeten we elkaar tegen zulk contact met kunstmatige intelligentie beschermen?’

De chatbot is een lege huls

Maar behalve een gebrek aan wederkerigheid is er nog een ander probleem: kunstmatige intelligentie heeft geen autonomie. ‘Een machine wil niets, net zoals een ijskast niets wil. Als zo’n apparaat iets doet wat je niet bevalt, kun je het uitzetten, of je kunt het anders instellen.’ Zo is LaMDA zo geprogrammeerd dat hij niet de persoonlijkheid van een moordenaar kan aannemen. Lemoine kon hem alleen zover krijgen te zeggen dat hij een acteur is die een moordenaar speelt in een televisieserie. Haselager: ‘Eigenlijk mist zo’n apparaat iets wat cruciaal is voor waardevol menselijk contact: het vermogen om doorvoeld “nee” te zeggen, om je af te wijzen. Contact met een ander is mede betekenisvol doordat die ander een keuze heeft. Het is belangrijk om af en toe “nee” te horen, dat maakt je sociaal sterker. Voortdurend omgaan met robots die geprogrammeerd zijn om altijd “ja” te zeggen kan je ernstig hinderen in je sociale ontwikkeling.’

Ook Lanzing benadrukt hoe technologie onze relaties met anderen en de wereld beïnvloedt. ‘Zorg- en seksrobots en assistentie-software hebben bijvoorbeeld vaak een vrouwelijke vorm, een vrouwelijke stem of naam, en stellen zich heel dienstbaar op. Daar moeten we voor oppassen in het kader van gelijke behandeling. Technologie is niet neutraal – we bakken er bepaalde waarden en ideologieën in mee – en kan (gender)stereotypes reproduceren en versterken.’ Ook moeten we volgens Lanzing goed in ons hoofd houden dat we in het geval van kunstmatige intelligentie vaak te maken hebben met commerciële bedrijven. ‘Het is niet per se in hun belang om mensen betekenisvol contact te laten hebben, eerder om ons zo veel mogelijk gebruik te laten maken van hun apparaten.’

‘Uiteindelijk’, zegt Haselager, ‘ontstaat er zoveel opwinding over weer een nieuwe “bewuste” machine omdat het onze favoriete nachtmerrie is. Aan de ene kant zouden we trots zijn als het ons lukt een zelfbewuste robot te maken, aan de andere kant zouden we het ook griezelig vinden. Die “leuk maar eng” reactie zorgt voor zoveel media-aandacht. Het beste daaraan is dat we er opnieuw op gewezen worden dat we gevoel en bewustzijn minder goed begrijpen dan intelligentie. Daar moeten we meer aandacht aan besteden.’