‘Is AI gevaarlijk?’
Wat als AI de menselijke intelligentie gaat overstijgen?
Artificial Intelligence (AI) maakt al jaren deel uit van ons leven, alleen hebben we het vaak niet in de gaten. AI maakt ons leven gemakkelijker, beter en slimmer. Het stuurt onze wasmachines aan, navigeert je naar het juiste adres, helpt ons de beste hotels te vinden, is onmisbaar in zelfrijdende auto’s (als die er ooit echt komen), helpt ons fraude te voorkomen, stuurt chatbots aan, is cruciaal in videogames, is de software achter virtuele assistenten, wijst je op de leukste films en maakt ook onze gezondheidszorg beter. Maar kleven er gevaren aan? Daar zijn de meningen sterk over verdeeld. Een meerderheid – iedereen behalve de ontwikkelende bedrijven – vindt wel dat de branche toe is aan strenge regulering, maar daar heb je overheden voor nodig.
Wanneer Elon Musk zegt dat AI gevaarlijker is dan een kernbom krijgt hij wereldwijde aandacht. Maar klopt zijn uitspraak? Daar kun je de nodige twijfels bij hebben. Om te beginnen heeft Musk een commercieel belang. Een beetje angst kan nooit kwaad en hij zegt impliciet dat hij en zijn concurrenten de ruimte moeten krijgen om hun software zo goed mogelijk te ontwikkelen. Daar is geen overheidsbemoeienis voor nodig. Daar heeft hij het mis. Het is nodig dat overheden hightech nauwgezet op de vingers kijken en hun acties door wetten reguleren. De geschiedenis leert dat als bedrijven te veel ruimte krijgen, zij die ruimte op de voor hen meest voordelige manier zullen inzetten. Ze zullen er dus alles aan doen om echte regulering te voorkomen of te beperken. Bovendien hebben criminelen de voordelen ontdekt en wordt onderscheid maken tussen de echte en gefungeerde wereld steeds moeilijker. AI systemen zijn zelflerend en dat vinden veel wetenschappers een akelig idee. Ook Stephen Hawking sprak de waarschuwing uit dat AI bedoeld of onbedoeld het einde van de mensheid kan inluiden. Hoe? Dat weten we niet. Daar is superintelligentie voor nodig, AI die de menselijke intelligentie overstijgt. Die is er nog niet, maar er wordt aan gewerkt.
Larieflarie
Neem ChatGPT (Generative Pre-trained Transformer) dat in recordtijd de wereld verovert. Deze door OpenAI ontwikkelde chatbot is gespecialiseerd in communicatie met een gebruiker. Het gaat hier om een verbeterde versie van GPT-3. ChatGPT is echter niet meer dan een tool die voorspelt welke woorden uit een oneindige brei data logischerwijze bij elkaar passen en hoe je ze achter elkaar moet zetten om er een coherent verhaal van te maken. En dat gaat zeker niet altijd goed, soms komt er een tekst uit die op het eerste oog uitstekend leesbaar is, maar waarvan de inhoud kant nog wal raakt. Chat GPT genereert aannemelijke teksten, die op dit moment dus eigenlijk nog moeten worden gecontroleerd, want je kunt nooit instaan voor hun betrouwbaarheid. ChatGPT denkt namelijk niet, het maakt een tekst aan de hand van miljoenen teksten die in het systeem zijn ingevoerd. Foute teksten leveren dus foute uitkomsten op. ChatGPT is een sterk verbeterde versie van GPT-3 en er komt dus zeker ook een sterk verbeterde versie van ChatGPT. Het is in feite een oneindige reeks, die steeds beter in staat zal zijn taken te vervullen. Gaan we dan een punt bereiken waarbij feit en fictie niet meer uit elkaar zijn te houden? Wellicht wel, voor sommige teksten geldt dat nu al. Maar ChatGPT is geen mens. Communiceren, spreken of schrijven, is een interactie tussen mensen en begrijpen en intelligentie is ook menselijk. Of, zoals linguïst Emily M. Bender het in een interview in NRC (26 en 27 augustus 2023) verwoordt: ‘ChatGPT kan zinnen samenstellen die lijken te zijn voortgebracht door een mens, maar ze zijn alleen gebaseerd op statistische patronen en welk woord in welke context waarschijnlijk is. Ze zijn niet gegrond in de werkelijkheid’. Bender noemt een gevaar van ChatGPT. Omdat ze teksten kunnen maken die niets met de realiteit te maken hebben, die mogelijkerwijs weer worden opgepikt door een zoekmachine, zal de larieflarie zich verspreiden en steeds vaker door nieuwe gebruikers als ‘waar’ worden beoordeeld. Willekeurig gegenereerde zinnen worden zo als feit gepresenteerd. ‘De non-informatie verspreid zich als een olievlek, ons informatiesysteem raakt zo steeds verder vervuild’.
Data gedreven
AI kan alleen werken als er grote hoeveelheden data beschikbaar zijn. Daarom spreekt men bij deep learning (systemen leren van eerder gemaakte fouten) van ‘data-hungry neural systems’. AI werkt dus niet of nauwelijks als er weinig data beschikbaar zijn. Veel data betekent dat er veel opslagcapaciteit beschikbaar moet zijn en dat het energieverbruik extreem hoog is. Dat is een praktisch nadeel. Is die ruimte er, dan zullen systemen steeds verder worden geperfectioneerd en dus minder fouten maken. Je hoeft er volgens veel wetenschappers (en schrijvers) echter geen opmerkelijke literatuur van te verwachten, want AI kan niks met stijlfiguren. Is ChatGPT gevaarlijk? Nee, wanneer je rekening houdt met de beperkingen is er niets aan de hand. Sterker nog, ChatGPT werkt voor veel taken uitstekend. Bijvoorbeeld een scriptie schrijven, of een sollicitatiebrief. Ook wetenschappers zetten ChatGPT in om hen – op het moment dat ze vastlopen in hun onderzoek – op nieuwe gedachten te brengen.
Misbruik
Maar er is meer dan Chat GPT, AI wordt overal al breed toegepast, in vertaalsystemen, spraak- en beeldherkenning en in zelfsturende systemen. Neem de gezondheidszorg waar intelligente computers kleine afwijkingen veel nauwkeuriger kunnen herkennen dan mensen. En AI is onvermoeibaar, 24 uur per dag beschikbaar en de systemen worden met de minuut beter. Een wat minder vredelievende functie: de inzet van AI in zogeheten killerdrones, een autonoom wapen dat van afstand kan doden. De echte gevaren zitten in het misbruik dat AI mogelijk maakt. AI is ook door het criminele circuit en door dictaturen ontdekt. Neem bijvoorbeeld gezichtsherkenning dat heel eenvoudig als controlesysteem is in te zetten. China gebruikt het op grote schaal om haar inwoners te herkennen. Loop je op een voetgangersoversteekplaats door rood, je identiteit is meteen bekend en er hangt je een straf boven het hoofd. Ook criminelen hebben AI ontdekt. AI maakt via een app bijvoorbeeld ‘voice clooning’ mogelijk, de nieuwste vorm van online oplichting. Nieuw ontwikkelde software bootst met behulp van een app stemmen na. Ze zijn nauwelijks van de originele stem te onderscheiden en dat biedt allerlei mogelijkheden tot oplichting. Deepfake is nog zo’n voorbeeld, door manipulatie van beeld en audio ontstaat iets dat niet meer van echt is te onderscheiden. Data doubles gaan nog een stap verder. Dat zijn digitale versies van echte personen, die kunnen ontstaan door een digitale replica te maken op basis van data uit de meest uiteenlopende bronnen. Zo’n double kan worden gebruikt voor allerlei frauduleuze doeleinden.
Slachten ze de kip?
Alleen de overheid is in staat om het gebruik van AI systemen aan banden te leggen, maar daar doet zich ogenblikkelijk een probleem voor. Overheden zijn traag, het duurt lang voordat ze reageren op misstanden. Vooral als nog niet helemaal duidelijk is hoe die misstanden zich kunnen ontwikkelen. Dan blijven de ontwikkelaars over, is van hen iets te verwachten? Die vraag is in de inleiding van dit verhaal eigenlijk al beantwoord. Ontwikkelaars zullen niet snel overgaan tot het slachten, dan wel inperken van de mogelijkheden van hun kip met de gouden eieren, want dat is het. AI is een oneindig verdienmodel, niet voor niks steken ontwikkelaars jaarlijks miljarden in verder onderzoek, dat geld moet met rente en winst worden terugverdiend. Er zijn al veel toepassingen en die zullen eindeloos groeien – ten goede en ten kwade – als de branche niet streng wordt gereguleerd.
Sam Altman
OpenAI-oprichter Sam Altman spreekt openlijk over de gevaren. Hij noemt AI-toepassingen zoals ChatGPT potentieel gevaarlijk en ‘griezelige’ AI-toepassingen niet ver van ons verwijderd. Wat hij precies met griezelig bedoelt is niet helder. Sam Altman: “Eén van die uitdagingen voor AI is het wegwerken van vooroordelen. Omdat de modellen zijn getraind op bestaande en vaak gedateerde data bestaat de kans dat vooroordelen in de antwoorden sluipen. Die ‘biases’ kunnen over uiteenlopende thema’s gaan. Om die vooroordelen uit de antwoorden te halen, is nog meer training op data nodig. Het te snel adopteren van AI kan een beangstigende ervaring zijn, al geloof ik ook dat de wereld zich vrij snel zal aanpassen.” Sam Altman richtte OpenAI op samen met Elon Musk. Ook zijn oordeel is helder: “Onder andere ChatGPT heeft een enorm potentieel, dat zowel positief als negatief kan uitvallen, maar daaraan is een groot gevaar gekoppeld. Er moet regelgeving komen want op dit moment is AI een groter risico dan auto’s, vliegtuigen of medicijnen.” Als de mensen die aan de basis van deze ontwikkelingen staan voor gevaren waarschuwen, dan is het misschien verstandig om te handelen en die razendsnelle AI-ontwikkelingen snel en effectief te reguleren.