Home Mens en techniek ‘ChatGPT is net een vervelende oom die doet alsof hij overal verstand van heeft’
Mens en techniek

‘ChatGPT is net een vervelende oom die doet alsof hij overal verstand van heeft’

Filosoof Anco Peeters over de veranderingen die ChatGPT teweegbrengt: 'Hoe we schrijven zal door ChatGPT hoe dan ook veranderen.'

Door Jonathan Janssen op 23 januari 2023

laptop schrijven ChatGPT typen beeld Kaitlyn Baker

Filosoof Anco Peeters over de veranderingen die ChatGPT teweegbrengt: 'Hoe we schrijven zal door ChatGPT hoe dan ook veranderen.'

Dit artikel krijgt u van ons cadeau

Wilt u onbeperkt toegang tot de artikelen op Filosofie.nl? U bent al abonnee vanaf €4,99 per maand. Sluit hier een abonnement af en u heeft direct toegang.

Is dit een mens of een computer? Mensen staan versteld van de antwoorden die ze krijgen van ChatGPT, de chatbot die ontwikkelaar OpenAI eind november 2022 vrij beschikbaar maakte. De tekstgenerator produceert binnen luttele seconden marketingteksten, romantische gedichten of uitgebreide essays, en lijkt overal verstand van te hebben. Talloze scholieren en studenten besteden hun huiswerk al uit aan de chatbot.

Maar denk niet dat ChatGPT een menselijke vorm van intelligentie heeft, waarschuwt cognitiewetenschapper en filosoof Anco Peeters, werkzaam aan de Radboud Universiteit in Nijmegen. Hij bestudeert de ontwikkelingen in kunstmatige intelligentie en onderzoekt hoe we hier in ethisch opzicht mee om moeten gaan. 

Hoe ‘menselijk’ is de software achter ChatGPT?
‘We zijn geneigd antropomorfisch te denken over slimme technologie. Zo geven we robotstofzuigers een naam en zeggen we “sorry” als we per ongeluk tegen eentje aan lopen. Ook bij ChatGPT denken we al snel dat er een mens achter schuilgaat, die over de tekst heeft nagedacht. Maar de software levert een stuk tekst door middel van kansberekening. Het programma redeneert niet zelf; het denkt niet na over de woorden of de betekenis van een tekst, en fouten laten het programma koud. In die zin lijkt ChatGPT op een vervelende oom die op verjaardagen doet alsof hij overal verstand van heeft.’

Veel mensen gruwen van wat kunstmatige intelligentie inmiddels kan. Is dat terecht?
‘Er kleven zeker een aantal ethische risico’s aan programma’s als ChatGPT. Zo is de software getraind op datasets van het internet. Alle vooroordelen en stereotypen die op het internet rondgaan – en dat zijn er nogal wat – worden door het programma in stand gehouden. Zo kan de software ook racistische of seksistische vooroordelen overnemen. En als we allemaal massaal gebruikmaken van programma’s als GPT, hebben we flink meer dataservers nodig. Dat zou leiden tot een enorme groei in onze ecologische voetafdruk.’

Onder docenten heerst sinds de komst van ChatGPT de angst dat leerlingen en studenten voortaan al hun werkstukken laten schrijven door de chatbot. Hoe kijkt u hier tegenaan?
‘Om die reden is er nu detectiesoftware zoals GPTZero, die automatisch kan detecteren wanneer een tekst is opgesteld door GPT. Maar hierdoor ontstaat er een soort wapenwedloop tussen verschillende kunstmatige intelligenties. Als de chatbot zich ontwikkelt, dan moet de detectiesoftware dat ook. Ik zou die wedloop niet aangaan. Uiteindelijk zal in veel gevallen het werk van de chatbot niet meer te onderscheiden zijn van door mensen geproduceerde teksten. Ook niet door kunstmatige intelligentie.

Meer lezen over de filosofische implicaties van kunstmatige intelligentie? Schrijf je in voor de gratis nieuwsbrief

Ontvang wekelijks het laatste filosofienieuws, de beste artikelen en af en toe een aanbieding.

Er zijn overigens ook docenten die deze vormen van artificiële intelligentie juist omarmen. Zij willen die gebruiken om studenten over programmeercode of over een tekst te laten nadenken. Een risico hierbij is dat er een kloof kan ontstaan tussen onderwijsinstellingen die de software kunnen betalen en die dat niet kunnen. Bovendien moet je veel expertise in huis hebben om GPT goed te kunnen gebruiken en de betrouwbaarheid te kunnen inschatten.’

Kunnen chatbots de kwaliteit van door mensen geschreven teksten ook ten goede komen?
‘Je kunt ChatGPT gebruiken als sparringpartner of om inspiratie op te doen. Zelf wil ik de chatbot toepassen in het vak wetenschapsfilosofie, zodat mijn studenten hun zelfgeschreven teksten aan de bot kunnen voorleggen en bijvoorbeeld kunnen vragen of ze zaken hebben gemist. Vooralsnog is dit heel verkennend, maar ik ben benieuwd hoe studenten ermee omgaan.

Schrijven zal door ChatGPT hoe dan ook veranderen. Schrijven is een belichaamd proces: de manier waarop je iets schrijft heeft invloed op wát je schrijft. Dit weten we uit psychologisch onderzoek. Met een computer schrijf je een ander soort tekst dan met een pen. Zo nodigt een computer uit om op woordniveau veranderingen te maken. Je kunt gemakkelijk woorden of stukken tekst wissen of verslepen. Met een pen kan dit niet. Mensen die met pen schrijven, zijn meer bezig op alinea- of paragraafniveau.’

Heeft ChatGPT nog consequenties voor ons begrip van waarheid?
‘Zeker, evenals voor ons begrip van auteurschap. Je kunt een chatbot vragen om de schrijfstijl van bekende filosofen of schrijvers te imiteren. Er is recent een studie geweest waarin onderzoekers kunstmatige intelligentie-software de schrijfstijl van filosoof Daniel Dennett lieten nadoen. Dat leek goed te lukken: zelfs Dennett-kenners konden in sommige gevallen de teksten van de tekstgenerator en die van Dennett niet van elkaar onderscheiden.

Ook is het de vraag hoe we moeten omgaan met de overvloed aan teksten die we kunnen produceren. We publiceren nu al een grote hoeveelheid aan wetenschappelijke artikelen, die zeker niet allemaal worden gelezen. Straks wordt het nóg makkelijker om academische papers, maar bijvoorbeeld ook kunst en video’s te produceren. Moeten we daar watermerken voor verzinnen? En zal dergelijke software de toch al hoge werkdruk van mensen niet enkel verergeren?’

U onderzoekt hoe we kunnen omgaan met ontwikkelingen in kunstmatige intelligentie. Bij welke denker kunnen we volgens u terecht?
‘In de filosofie zijn er traditioneel gezien twee grote ethische theorieën: het kantianisme en het utilisme. Maar die schieten tekort in onze omgang met kunstmatige intelligentie; ze kunnen allebei geen rekening houden met een onzekere toekomst. Het utilisme stelt dat je een rekenkundige afweging moet maken over welke omgang met deze technologie het meeste geluk oplevert. Maar daar hebben we op dit moment geen idee van. En volgens Immanuel Kant moeten we als we een ethische keuze maken inbeelden wat er gebeurt als we een actie veralgemeniseren. Daar laat onze verbeeldingskracht ons in de steek: we weten niet hoe de wereld met ChatGPT eruit gaat zien, dat blijft gissen.

Zelf breek ik een lans voor een aristotelische kijk op kunstmatige intelligentie. Ik heb mij hiervoor laten inspireren door techniekfilosoof Shannon Vallor van de Universiteit van Edinburgh. Zij zegt dat de deugdethiek van Aristoteles ons kan helpen in onze relatie met kunstmatige intelligentie, omdat deze theorie niet veronderstelt dat we weten waar de wereld heengaat. Maar we kunnen wel nadenken over de houding die we ten aanzien van zulke technologieën willen aannemen. We moeten onszelf aan gaan leren om eerlijk te zijn over hoe een kunstwerk, essay of stuk code tot stand is gekomen.’