Home Moreel dilemma Moreel dilemma: heeft kunstmatige intelligentie een rustpauze nodig?
Mens en techniek Moreel dilemma

Moreel dilemma: heeft kunstmatige intelligentie een rustpauze nodig?

Prominenten uit de techindustrie roepen op tot een tijdelijke ban op de ontwikkeling van kunstmatige intelligentie. Is zo'n pauze nodig?

Door Jeroen Hopster op 02 juni 2023

protocol kunstmatige intelligentie rustpauze pauze ban pacman beeld Bas van der Schot

Prominenten uit de techindustrie roepen op tot een tijdelijke ban op de ontwikkeling van kunstmatige intelligentie. Is zo'n pauze nodig?

Filosofie Magazine FM6
06-2023 Filosofie magazine Lees het magazine

Een open brief van het Future of Life Institute, een non-profitorganisatie die zich bezighoudt met existentiële risico’s, heeft de discussie over de ontwikkeling van kunstmatige intelligentie (KI) op scherp gezet. De brief met duizenden ondertekenaars, onder wie techmagnaat Elon Musk en schrijver Yuval Noah Harari, stelt dat er het komende halfjaar een ban moet komen op ‘systemen van kunstmatige intelligentie die krachtiger zijn dan GPT-4’. Ongereguleerde groei van KI is gevaarlijk: ‘We verliezen de greep op onze samenleving.’ Die onrust wordt niet alleen door de briefschrijvers gevoeld. Sinds de intrede van ChatGPT en het nog veel krachtigere GPT-4 is duidelijk dat de creatieve vermogens van de mens niet onevenaarbaar zijn. Van teksten tot schilderijen en van beelden tot hoogwaardige ontwerpen – allerlei zaken kunnen tegenwoordig met een simpele opdracht door KI worden vervaardigd. De vermogens van KI zullen bovendien snel toenemen. Sommigen vrezen dat de creatieve sector op de schop gaat, anderen waarschuwen voor een tsunami aan deepfakes en misinformatie. De ontwikkeling van KI gaat razendsnel, en het valt nog te bezien of de maatschappij daar wel klaar voor is. Moet de pauzeknop worden ingedrukt?

Dit artikel is exclusief voor abonnees

Dit artikel op Filosofie.nl is alleen toegankelijk voor abonnees. Met liefde en zorg werken wij iedere dag weer aan de beste verhalen over filosofie. Steun ons door lid te worden voor maar €4,99 per maand. Log in om als abonnee direct verder te kunnen lezen of sluit een abonnement af.

JA

In de ethiek van opkomende technologieën speelt het zogenoemde ‘controledilemma’. In een vroege fase van ontwikkeling kan een technologie goed worden beheerst, maar zijn de maatschappelijke gevolgen te ongewis om haar ontwikkeling bij te sturen. In een late fase zijn de gevolgen duidelijk, maar is de technologie al zo ver ontwikkeld dat bijsturen moeilijk en duur is. Een adempauze helpt om dat dilemma te omzeilen: de samenleving wint tijd om zich goed op de gevolgen van KI voor te bereiden. Zo’n groeirem is historisch gezien niets nieuws. Veelbelovende technologieën zijn vaker vertraagd of zelfs terzijde geschoven, zoals systemen om het weer te beïnvloeden, en biologische wapens. Voor KI lijkt zo’n ontwikkelingsstop broodnodig. Neem het onderwijs: leerlingen en studenten besteden massaal hun opdrachten en essays uit aan GPT, terwijl onderwijzers achter de feiten aan lopen. Bovendien, zo wordt benadrukt in de open brief van het Future of Life Institute, komen er bij de ontwikkeling van krachtige KI risico’s kijken die de menselijke beschaving doen wankelen. De steeds slimmere systemen worden zelfs door hun scheppers niet meer begrepen. Dat onbegrip brengt veiligheidsrisico’s met zich mee. Daarom moet er een tijdelijk verbod op de ontwikkeling van krachtige KI worden gelegd. Zoals de briefschrijvers stellen: ‘Laten we nu van een “­KI-zomer” genieten waarin we de vruchten plukken van de huidige systemen, de systemen zodanig ontwikkelen dat iedereen er profijt van heeft en de maatschappij een kans geven om zich aan te passen.’

De steeds slimmere systemen worden zelfs door hun scheppers niet meer begrepen

NEE

De problemen van KI zijn weliswaar talrijk, maar een ontwikkelingsstop geeft geen blijk van een doordachte ethische strategie. KI heeft ‘begeleidingsethiek’ nodig: geen slaafse omarming of categorische afwijzing van de technologie, maar een kritische interactie met de technologie terwijl die ingang vindt in de samenleving. Hysterie en paniekzaaierij dragen hier niet aan bij. Het Future of Life Institute wordt gefinancierd door aanhangers van longtermism, een filosofische stroming die zich richt op existentiële gevaren voor de mensheid. Dat verklaart waarom hun open brief de nadruk legt op de gevaren van KI op de lange termijn. Maar zulke vergezichten leiden af van concrete schade die kunstmatige intelligentie zoals GPT nu al berokkent. GPT verspreidt misinformatie, verzamelt en gebruikt informatie zonder consent en is niet transparant over hoe het algoritme functioneert. GPT creëert de illusie van menselijk begrip, terwijl daar geen sprake van is. Daarnaast draagt het bij aan machtsconcentratie van een klein aantal techondernemers. Big data worden ‘schoongehouden’ door Afrikaanse arbeiders, die gruwelijke content wegfilteren en daar vaak posttraumatische stressstoornissen aan overhouden. Natuurlijk is er in het licht van die problemen behoefte aan goede KI-ethiek. Maar er is geen halfjaar durende pauze nodig om die ethiek te ontwikkelen, want ze bestaat al; er zijn tal van regels en protocollen voor de veilige en rechtvaardige ontwikkeling van kunstmatige intelligentie. De uitdaging is om KI-ontwikkelaars zover te krijgen dat ze hieraan gehoor geven.