ChatGPT zal minder halluniceren door betere training

OpenAI gaat ChatGPT zichzelf beter laten trainen, zodat ‘hallucinaties’ (incorrecte of ongepaste antwoorden) nog beter vermeden kunnen worden.

Hoewel chatbots als ChatGPT en Google Bard ons met verstomming kunnen slaan over hun mogelijkheden en menselijke manier van antwoorden, zijn de interacties verre van perfect. De taalmodellen blijven gevoelig aan ‘hallucinatie’, het genereren van ongewenste antwoorden of gewoonweg foutieve informatie. OpenAI wil de kunstmatige intelligentie een upgrade geven, zodat die zichzelf doeltreffender kan trainen.

“ChatGPT schrijft vaak aannemelijke antwoorden, maar soms zijn die incorrect of zelfs nonsens”, zegt OpenAI in een blogbericht. Dat de chatbot valse informatie kan voortbrengen, leidt tot bijkomende bezorgdheden over de verspreiding van desinformatie online en de mogelijke gevolgen daarvan. Daarom wil OpenAI hallucinaties vermijden door ChatGPT logischer te laten reageren.

ChatGPT leert stap-voor-stap
OpenAI heeft een model getraind dat in staat is om complexe wiskundige problemen op te lossen via ‘process supervision’. Bij die methode wordt er feedback gegeven op elke individuele stap, terwijl dat vroeger pas bij de uitkomst en dus het eindresultaat gebeurde.

Tijdens het onderzoek gebruikte OpenAI zowel de oude als de nieuwe methode met de MATH-dataset. De researchers kwamen tot de conclusie dat de methode voor process supervision tot opvallend betere resultaten leidde. “De nieuwe methode zorgt ervoor dat ChatGPT makkelijker via interpretatie kan redeneren, aangezien het aangemoedigd wordt om een proces van menselijke goedkeuring te volgen”, luidt het.

OpenAI benadrukt wel dat het nog niet duidelijk is hoe sterk de resultaten in de praktijk zullen verbeteren, maar het wiskundige model zou alvast veelbelovend zijn.

ChatGPT zal minder halluniceren door betere training

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *