Kunstmatige intelligentie (AI) lijkt met de chatbot ChatGPT een nieuw hoogtepunt te hebben bereikt. En steeds meer grote bedrijven die AI ontwikkelen, waarschuwen tegen de gevaren van hun eigen technologie. Van het verspreiden van nepnieuws tot het einde van de wereld. Zijn die waarschuwingen terecht? Deskundigen analyseren wat erachter zit.
Het begon toen een van de grondleggers van kunstmatige intelligentie, Geoffrey Hinton, eerder deze maand opstapte bij Google om mensen te waarschuwen tegen zijn eigen werk. Hij was bang dat kunstmatige intelligentie (AI) zou zorgen voor zoveel nepnieuws en misinformatie op internet, dat mensen op zeker moment niet meer kunnen weten wat waar is en wat niet. Zijn uitspraken maakten veel los.
Niet lang daarna spraken andere topmannen zich uit. Bij Apple klonk de waarschuwing dat AI zou leiden tot veel meer gewiekste oplichtingspraktijken via internet. De topman van de populaire taalbot ChatGPT ging nog een stap verder: kunstmatige intelligentie helpt uiteindelijk de mensheid om zeep, is de strekking van zijn verhaal.
Slim spelletje
Het klinkt als een onwaarschijnlijk doemscenario. Toch hebben honderden techneuten inmiddels hun naam gezet onder een open brief. Hun oproep: de ontwikkeling van AI gaat veel te hard en moet gepauzeerd worden, voordat we de controle erover verliezen. Het vreemde hieraan is alleen: veel van de ondertekenaars werken zélf aan AI-systemen. Zijn de waarschuwingen voor het einde van de mensheid gegrond? Of is het onderdeel van een slim spelletje, gespeeld door de grote bedrijven?
De angst voor AI komt niet helemaal uit de lucht vallen. In sciencefictionfilms wordt al decennialang gespeeld met apocalyptische scenario’s waarin slimme computers de mensheid overnemen. Die technologie leek nog altijd ver weg. Maar met de komst van de taalbot ChatGPT werd voor het eerst ineens heel zichtbaar hoe ver we eigenlijk al zijn met AI: je voert een vraag of probleem in, de computer spuugt binnen enkele seconden een antwoord uit dat veel slimmer is dan je zelf had kunnen bedenken.
Voor gek verklaard
“Als je een jaar geleden had gezegd dat je je zorgen maakt over AI, dan werd je voor doemdenker uitgemaakt. Nu is het andersom. Als je zegt dat de gevaren van AI wel meevallen, dan word je voor gek verklaard”, zegt AI-expert Remy Gieling. “Maar AI op zich is niet eng. We hebben heel nuttige AI die we dagelijks gebruiken, van systemen die voorspellen of onze vlucht vertraging heeft, tot algoritmes op sociale media.”
Waar sommige topmannen nu tegen waarschuwen, is de zogenoemde ‘superintelligentie’, vertelt Gieling. Dat zijn systemen die zo krachtig zijn dat ze het menselijk brein overstijgen. “In feite worden we nu gewaarschuwd dat de sciencefictionscenario’s werkelijkheid worden.”
Zelfstandige beslissingen
Eric Postma, hoogleraar AI aan de Tilburg University, vindt die scenario’s overdreven. “Als je weet wat die modellen allemaal wel en niet kunnen, dan is AI niet zo eng. We zijn nog niet zo ver dat machines zelfstandige beslissingen nemen.”
De echte gevaren zitten nu vooral in het misbruik dat gemaakt kan worden van deze slimme trainingsmodellen, zegt Postma. “AI kan bijvoorbeeld spammailtjes zo realistisch maken, dat we er allemaal intrappen. Of het kan binnen een korte tijd software schrijven die in overheidssystemen kan hacken.”
Maar waarom buitelen AI-topmannen dan over elkaar heen om ons te vertellen wat de gevaren zijn van hun eigen werk? “Ik denk dat ze een commercieel spel spelen”, legt hoogleraar Postma uit. De grote bedrijven concurreren met elkaar: wie kan het snelst een goed AI-programma op de markt brengen? “Microsoft, dat meewerkte aan het succesvolle ChatGPT, heeft gewonnen van Google. Dus nu roept Google dat het programma gevaarlijk is.”
Wie is de baas?
Volgens AI-expert Gieling gaat het niet alleen over concurrentie tussen de bedrijven, maar is het een tactiek om hun eigen hachje redden: “Landen zijn druk bezig met het maken van strengere wetgeving over AI. Ik denk dat de topmannen aan de wereld willen laten zien dat zij druk bezig zijn met de keerzijden van AI, om straks te mogen meepraten over de regels. Zo blijven ze de baas over de technologie.”
Is er dan helemaal niets waar van de doemscenario’s? In feite kunnen we nog niet voorspellen wat de krachtige AI-modellen wel of niet gaan doen met onze samenleving. Daarom kunnen we er maar beter voorzichtig mee omgaan, vindt Natali Helberger, hoogleraar Recht en Digitale Technologie aan de Universiteit van Amsterdam. “Die verantwoordelijkheid ligt niet alleen bij gebruikers van AI, maar zeker ook bij de makers.”
‘We hebben gewaarschuwd’
Helberger denkt dat de topmannen nu waarschuwingen rondstrooien om die verantwoordelijkheid óók neer te leggen bij de maatschappij. “Op die manier kunnen ze zeggen als het een keer fout gaat: ‘We hebben jullie gewaarschuwd.’ Ze willen dat het niet alleen hun risico’s zijn, maar die van de hele maatschappij. Dat vind ik hypocriet. Als je een model bouwt dat volgens jou het einde van de wereld kan betekenen, dan moet je dat niet naar buiten brengen.”
Volgens de deskundigen moeten de makers van AI-systemen vooral transparant blijven over wat ze allemaal de samenleving in slingeren. Hoogleraar Helberger: “De grote bedrijven moeten ervoor zorgen dat de modellen die ze maken onze waarden respecteren. En vooral dat AI ook weer uitgezet kan worden als het misgaat.”