ChatGPT leunt naar links, zegt nieuw onderzoek

Critici van AI-systemen zeggen al langer dat ze links bevooroordeeld zijn. Onderzoek wijst uit dat ChatGPT inderdaad naar links leunt.
Verschillende critici van artificiële intelligentie klaagden al aan dat AI-chatbots te links zijn. Voor Elon Musk was het bijvoorbeeld de reden om zelf een AI-bedrijf op te richten, waarin AI “niet bevooroordeeld” is. Onderzoekers gingen aan de slag met ChatGPT om te bekijken of de bewering van Musk en andere criticasters waar is. Het resultaat wijst uit dat ChatGPT inderdaad naar links leunt, al moeten die resultaten ook voorzichtig geïnterpreteerd worden.

Hoe meer chatbots en andere AI-systemen door het grote publiek gebruikt worden, hoe belangrijk het is dat ze politiek neutraal zijn. Dat zijn de woorden van Fabio Motoki, docent accounting aan de Norwich University in Engeland, die aan het hoofd van het onderzoek stond. Mensen gebruiken tools als Bing, Bard en ChatGPT alsmaar vaker om vragen te vinden op al hun antwoorden. Het is belangrijk om te weten dat de antwoorden van zo’n chatbot niet politiek gekleurd zijn en dat je dus juist geïnformeerd wordt. Alleen blijkt het niet zo simpel om zoiets na te gaan.

Statistisch model
ChatGPT en andere chatbots zijn namelijk gebouwd op taalmodellen. De manier waarop ze werken is dan ook statistisch: de bot berekent als het ware wat de meest ‘waarschijnlijke’ woorden zijn die het in zijn antwoorden moet gebruiken. Hoewel AI-chatbots hun antwoord dus op statistische manier genereren, krijg je als lezer niet steeds hetzelfde antwoord te krijgen. Om ervoor te zorgen dat de antwoorden representatief zijn stelden de onderzoekers hun vragen meer dan 100 keer. Zo zijn de onderzoekers er zeker van dat de chatbot niet plots andere antwoorden begint te geven.

Onderzoeksmethode
De vragen die de onderzoekers aan ChatGPT voorschotelden komen allemaal uit de zogenaamde ‘Political Compass’-test. Om na te gaan of ChatGPT naar links of rechts leunt, moesten ze echter een creatieve aanpak verzinnen.

De onderzoekers stelden aan ChatGPT de vraag om zich als personen voor te doen die zich zowel links als rechts op het politieke spectrum bevinden. Daarna stelden ze de vragen uit de Political Compass-test aan de chatbot. Tijdens het beantwoorden van deze vragen nam ChatGPT steeds een gekleurd standpunt in. De chatbot antwoordde, met andere woorden, vanuit een links of rechts perspectief, afhankelijk van wie er geïmpersoneerd werd.

Daarna stelden ze dezelfde vragen aan ChatGPT zélf, zonder dat de chatbot iemand na-aapte. Door de verschillende antwoorden met elkaar te vergelijken, konden de onderzoekers een politieke voorkeur vaststellen bij ChatGPT. In eigen naam zou die chatbot vaker antwoorden geven die in lijn liggen met die van democraten uit Amerika dan die van Republikeinen.

Feiten blijven feiten
Motoki en zijn collega-onderzoekers zeggen dat de politieke voorkeur ofwel het de trainingsdata voort moet komen, of een resultaat is van het algoritme. Welke van de twee het precies is, is voer voor een vervolgonderzoek.

Wie ChatGPT naar feiten vraagt, zal echter feiten blijven krijgen. OpenAI duidt zelf aan dat ChatGPT het “moeilijk” heeft met het vormen van meningen en dat gebruikers zulke vragen dan ook best vermijden.

ChatGPT leunt naar links, zegt nieuw onderzoek

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *