‘Verdwijnt het onderscheid tussen feit en fictie?’
Moet het gebruik van ChatGPT worden gereguleerd?
De introductie van ChatGPT in november 2022 leidde tot wereldwijde reacties. Een chatbot die perfecte teksten over elk willekeurig onderwerp in recordtijd kan produceren? Die is er nu. De reacties lopen zeer uiteen. Sommige gebruikers kunnen niet genoeg superlatieven vinden om de voordelen van ChatGPT te beschrijven, anderen waarschuwen tegen misbruik, want wat is nog echt en wat door een machine gegenereerd?
ChatGPT (Generative Pre-trained Transformer) is het prototype van een door OpenAI ontwikkelde chatbot, die is gespecialiseerd in communicatie met een gebruiker. Het gaat hier om een verbeterde versie van GPT-3. Inmiddels deden miljoenen mensen ervaringen op met het revolutionaire taalmodel en sommigen gebruiken het nu al in hun dagelijkse werk. Er doemt een probleem op, de teksten zijn – ondanks beginnersfouten – nauwelijks van echt te onderscheiden. De roep om het gebruik aan banden te leggen klinkt steeds luider. Kan dat trouwens nog wel?
Scholieren zijn blij
Middelbare scholieren slaakten een zucht van verlichting, boekbesprekingen of andere taalopdrachten zijn vanaf nu kinderspel, ChatGPT schrijft ze. Scholen zijn minder blij, want hoe controleren ze of een tekst authentiek is? Ook persberichten of journalistieke producten, liefdesbrieven, sollicitatiebrieven, complete boeken, toneelstukken, ChatGPT schrijft ze. En het meest wonderlijke van alles, het algoritme van ChatGPT is zelflerend, de teksten worden dus steeds beter, het programma traint zichzelf met nieuwe teksten en gesprekken. Het programma wordt vaak gebruikt om een eerste voorzet te geven, de check van een mens is nu nog wel echt nodig. Is de tekst niet te mat, klopt de opbouw, staat er geen onzin in? Dat laatste zal niet zo snel gebeuren. ChatGPT is een vorm van kunstmatige intelligentie, die is getraind met een enorme dataset, een zogeheten Large Language Model, bestaande uit teksten vanuit allerlei geschreven en gesproken bronnen. OpenAI heeft bij de ontwikkeling van ChatGPT ook menselijke trainers ingezet om dialogen in te spreken. De adoptiesnelheid van het programma is enorm: de eerste vijf dagen gebruikten al meer dan een miljoen bezoekers de software, dus ChatGPT is hier om voorgoed te blijven.
De rol van de mens
Wat is de rol van de mens nu nog? Best groot, om te beginnen geeft de mens de computer een commando of stelt een vraag: schrijf een perfecte column (zie de column van Wouter van der Loon op pagina 50). Daar komt een zinvol, maar vaak saai verhaal uit, dat – indien Wouter dat had gewild – goed als basis had kunnen dienen voor een goede column. Voor sommige beroepsbeoefenaars zal ChatGPT dus best een bedreiging zijn, denk aan tekstschrijvers en journalisten. Zij werken vaak op basis van al bestaande kennis vanuit verschillende bronnen, die dus ook voor ChatGPT bekend is. Wat in elk geval ontbreekt is creativiteit, humor, cynisme, kortom typisch menselijke stijlkenmerken en trekjes die niet eenvoudig in strakke voorgeprogrammeerde taal zijn te vangen. Toch zijn er al veel professionele gebruikers, ook in de wetenschap. In natuurkunde en chemie gebruiken wetenschappers al AI-modellen om een vastgelopen onderzoek een nieuwe wending te geven. Daar blijkt AI uitermate geschikt voor. Het kan wetenschappers inspireren tot nieuwe ideeën, want misschien ziet ook ChatGPT wel nieuwe verbindingen die onderzoekers zelf nog niet hadden bedacht. Op die manier gebruiken ze wel degelijk een zekere vorm van creativiteit, zijn ze in staat om taalkennis op een verrassende manier te combineren. Dat moeten we echter nog zien, zo ver is het zeker nog niet.
Is ChatGPT een gevaar?
ChatGPT blijft een machine die voorspelt welke woorden uit een oneindige brei data logischerwijze bij elkaar passen en hoe je ze achter elkaar moet zetten om er een coherent verhaal van te maken. Het is dus niet meer en niet minder dan een zoekmachine. Die machine denkt niet en doet niet, heeft in feite dus dezelfde capaciteiten als een rekenmachine, die doet de dingen die ooit zijn ingevoerd. In dit geval leert ChatGPT door AI algoritmes zelf ook nog. Dat is wel iets om rekening mee te houden: Chat GPT is een sterk verbeterde versie van GPT-3 en er komt dus zeker ook een sterk verbeterde versie van ChatGPT. Het is een oneindige reeks. Zolang mensen bereid zijn geld te investeren in ontwikkelcapaciteit zal de machine zich verbeteren en dat zal snel gaan. Dan bereiken we al snel een punt waarbij feit en fictie niet meer uit elkaar zijn te houden.
Feit en fictie
Wanneer het voor sommige door ChatGPT gegenereerde teksten nu al moeilijk is om ze van echt – door mensen geschreven – teksten te onderscheiden, hoe zit dat dan over tien jaar? Dan is het volstrekt onmogelijk om een ChatGPT-tekst te herkennen. Wanneer dezelfde ontwikkelingen zich voordoen met beelden en video dan wordt het een monsterklus om te bepalen of informatie nep of echt is. Op dit moment hebben miljoenen gebruikers van allerlei social mediakanalen al moeite om een bericht te herkennen als nepnieuws en dus vals. Dat heeft al het niveau bereikt dat het als een wapen in de informatieoorlog tegen een vijand kan worden ingezet. Wat als dat allemaal nog veel perfecter wordt? De voorspelling is dat in 2025 90% van de digitale informatie door kunstmatige intelligentie tot stand komt. Dat is dus over twee jaar. Wie kan dan nog controleren wat waar is en wat gecreëerde realiteit?
Overheidstaak
Alleen de overheid is in staat om het gebruik van ChatGPT en vergelijkbare modellen aan banden te leggen. Het probleem van overheden is echter dat ze altijd reageren op bestaande situaties, ze houden geen of te weinig rekening met toekomstige ontwikkelingen. Is van de ontwikkelaars zelf iets te verwachten? OpenAI-oprichter Sam Altman spreekt openlijk over de gevaren. Hij noemt AI-toepassingen zoals CHatGPT potentieel gevaarlijk en ‘griezelige’ AI-toepassingen niet ver van ons verwijderd. Wat hij precies met griezelig bedoelt is niet helder. Sam Altman: “Eén van die uitdagingen voor AI is het wegwerken van vooroordelen. Omdat de modellen zijn getraind op bestaande, en vaak gedateerde data bestaat de kans dat vooroordelen in de antwoorden sluipen. Die ‘biases’ kunnen over uiteenlopende thema’s gaan. Om die vooroordelen uit de antwoorden te halen, is nog meer training op data nodig. Het te snel adopteren van AI kan een beangstigende ervaring zijn, al geloof ik ook dat de wereld zich vrij snel zal aanpassen.” Sam Altman richtte OpenAI op samen met Elon Musk. Ook zijn oordeel is helder: “Onder andere ChatGPT heeft een enorm potentieel, dat zowel positief als negatief kan uitvallen, maar daaraan is een groot gevaar gekoppeld. Er moet regelgeving komen want op dit moment is AI een groter risico dan auto’s, vliegtuigen of medicijnen.” Als de mensen die aan de basis van deze ontwikkelingen staan voor gevaren waarschuwen, dan is het misschien verstandig om te handelen en die razendsnelle AI-ontwikkelingen snel en effectief aan banden te leggen.