Hoewel hij bewust en intelligent lijkt, werkt de chatbot van OpenAI met generatieve AI heel anders dan de meeste gebruikers denken. In werkelijkheid hebben deze technologieën ernstige beperkingen.
ChatGPT denkt niet, redeneert niet en begrijpt de wereld niet, het begrijpt zelfs woorden niet zoals mensen dat doen. Toch is het in staat om zinvolle gesprekken te voeren, complexe teksten te schrijven en onderwerpen in enkele seconden uit te leggen. Het klinkt allemaal zo coherent dat je gemakkelijk vergeet dat er geen echte intelligentie achter zit, maar een reeks zeer goed geïntegreerde technische processen.
Steeds meer mensen gebruiken dit type kunstmatige intelligentie om te studeren, brieven te schrijven, ideeën te genereren, afbeeldingen in Ghibli-stijl te maken of vragen op te lossen. Maar weinigen staan stil bij hoe het eigenlijk werkt. Wat weet het, wat weet het niet, waarom heeft het soms gelijk… of waarom verzint het in andere gevallen dingen?
Dit weten is niet alleen een kwestie van nieuwsgierigheid, maar helpt ook om het op een slimme manier te gebruiken. Daarom delen we vijf weinig bekende geheimen met u die uitleggen hoe de chatbot van OpenAI echt werkt. Sommige van deze punten veranderen volledig hoe u moet vertrouwen op wat hij u vertelt.
Voor minder dan 100 euro biedt Xiaomi deze Xiaomi -mobiele telefoon aan met een gratis fitnessarmband
Hij denkt niet zelf, er staan mensen achter die de chatbot trainen
Om ChatGPT natuurlijk te laten reageren, moest iemand hem eerst leren wat hij wel en niet mag zeggen. Die iemand is niemand anders dan een team van mensen die hem duizenden uren trainen. Ze laten hem voorbeelden zien, corrigeren fouten, passen de toon aan en filteren vooral alles wat beledigend of gevaarlijk kan zijn.
Dit proces wordt ‘alignment’ genoemd, en daarom geeft het systeem, wanneer je een delicate vraag stelt – bijvoorbeeld hoe je een wapen kunt maken – niet alleen geen antwoord, maar probeert het je ook door te verwijzen naar een betrouwbare bron of zelfs een waarschuwing te geven. Zonder deze menselijke filter zou AI onvoorspelbaar zijn.
Ze leren niet met woorden, maar met tokens
Wanneer u een zin leest, begrijpt u deze als een geheel, maar voor ChatGPT bestaat dat niet. Het verdeelt elke tekst in kleinere delen, tokens genaamd. Dit kunnen hele woorden, fragmenten of zelfs combinaties van letters zijn.
Bijvoorbeeld, “ChatGPT is geweldig” wordt opgesplitst in Chat-G-PT-es-mar-vellous. Of een eenvoudige zin als “de prijs is 9,99 euro” wordt el-precio-es-9-,-,99-euros… Dat lijkt niet logisch, maar voor een machine is het logisch.
Dit systeem stelt hem in staat om snel miljoenen zinnen te verwerken, maar verklaart ook waarom hij soms een vraag verkeerd interpreteert, betekenissen door elkaar haalt of vreemd antwoordt. Omdat hij geen complete ideeën ziet, maar afzonderlijke fragmenten die hij probeert samen te voegen.
Estela Moreno, huishouddeskundige: “Met deze eenvoudige truc kunt u schimmel van het plafond in de badkamer verwijderen.”
Elke dag raken ze meer verouderd
Hoewel het lijkt alsof de chatbot alles weet, wordt hij niet bijgewerkt en is zijn kennis beperkt tot de periode tot juni 2024. Daarna heeft hij geen idee wat er is gebeurd. Hij weet niet of er een nieuwe president is, of er een nieuwe mobiele telefoon is uitgebracht of dat er een nieuwe wet is aangenomen.
Als je hem iets vraagt over iets recent, moet hij op internet zoeken met de zoekmachine Bing, betrouwbare pagina’s controleren en je een korte samenvatting geven. Interessant is dat hoewel het systeem in de meeste gevallen deze taak goed uitvoert, het resultaat afhangt van wat het vindt.
Als de inhoud schaars, tegenstrijdig of onduidelijk is, zal het antwoord dat ook zijn. Het updaten van deze modellen is niet zo eenvoudig als het installeren van een nieuwe app, het is een complex, duur en langdurig proces. Daarom blijft ChatGPT, totdat er een nieuwe versie is getraind, in het verleden steken.
Ze hebben hallucinaties
Een van de ernstigste tekortkomingen van deze AI is zijn vermogen om te ‘hallucineren’, dat wil zeggen antwoorden te geven die overtuigend klinken, maar volledig onjuist zijn. Hij kan je vertellen dat een bepaalde wetenschapper een artikel heeft geschreven dat nooit heeft bestaan, of je nauwkeurige gegevens met valse links geven.
Hij doet dit niet met opzet, maar vult gewoon de hiaten op om het antwoord compleet te laten lijken. Dit komt omdat zijn prioriteit ligt bij vloeiend klinken, niet bij correctheid. Als een zin logisch klinkt en past in het patroon van de miljoenen teksten die hij heeft gelezen, zal hij deze genereren, zelfs als deze geen enkele reële basis heeft.
Wees dus voorzichtig wanneer u het gebruikt om informatie te zoeken, want het kan u wel ideeën geven, maar u mag de antwoorden nooit als definitief beschouwen. Vooral als het gaat om technische gegevens, onderzoek of gevoelige inhoud. Het is beter om dit zelf te onderzoeken.
Wiskundige bewerkingen worden door ChatGPT uitgevoerd door een ander hulpmiddel
ChatGPT kent geen wiskunde, want hoewel het je het juiste resultaat kan geven, delegeert het deze bewerking in feite aan een intern hulpmiddel dat als een rekenmachine werkt. U schrijft een vraag, het systeem bepaalt wat voor berekening het is, lost deze op met behulp van deze applicatie en toont u vervolgens het resultaat alsof het door de chatbot is bedacht.
Bovendien gebruikt het voor het oplossen van complexe taken een techniek die ‘denkketen’ wordt genoemd. Dat wil zeggen dat het stap voor stap redeneert en het proces in fasen opsplitst tot het einde. Dit vermindert het aantal fouten, maar elimineert ze niet volledig.
Daarom kan hij soms fouten maken bij eenvoudige sommen, maar complexe opgaven wel correct oplossen — het hangt ervan af of zijn redeneringsinstrument is geactiveerd. Als u dit weet, kunt u beter inschatten wanneer u op zijn berekeningen kunt vertrouwen en wanneer u beter een echte rekenmachine bij de hand kunt houden.