Wat zijn de beperkingen van ChatGPT?
ChatGPT is een populaire chatbot die eind 2022 werd uitgebracht door OpenAI. Chatbots, of computerprogramma’s die menselijke interacties simuleren via kunstmatige intelligentie (KI/AI) en natuurlijke taalverwerking (NLP), kunnen helpen bij het beantwoorden van veel academische vragen.
Hoewel het gebruik van ChatGPT tijdens je studie handig kan zijn, met name voor hulp bij examenvoorbereiding, huiswerkopdrachten of academisch schrijven, heeft de tool momenteel nog beperkingen. De huidige beperkingen zijn onder meer:
- Incorrecte antwoorden
- Bevooroordeelde antwoorden
- Gebrek aan menselijk inzicht
- Lange of langdradige antwoorden
ChatGPT-beperking 1: Incorrecte antwoorden
Aangezien ChatGPT een voortdurend evoluerend taalmodel is, is het onvermijdelijk dat de tool fouten maakt. Het is cruciaal om je werk dubbel te controleren als je de tool gebruikt, want ChatGPT maakt momenteel nog grammaticale, wiskundige, feitelijke en redeneerfouten (zoals drogredenen).
ChatGPT is niet altijd betrouwbaar bij de beantwoording van ingewikkelde vragen over gespecialiseerde onderwerpen zoals grammatica of wiskunde, dus kun je dit soort vragen het beste zo eenvoudig mogelijk houden. Dubbelcheck de antwoorden op meer gespecialiseerde vragen door betrouwbare bronnen te raadplegen.
Een belangrijk probleem is dat ChatGPT soms moeite heeft om te erkennen iets niet te weten. In plaats daarvan verzint de tool een aannemelijk klinkend, maar verkeerd, antwoord. Op die manier geeft ChatGPT voorrang aan een “vollediger” antwoord boven feitelijke juistheid.
Zo heeft ChatGPT op verschillende momenten verwezen naar niet-bestaande wettelijke bepalingen die de tool zelf creëerde om niet te hoeven zeggen dat hij een antwoord niet wist. Dit gebeurt vooral als de chatbot geen expertise heeft of als iets gespecialiseerde kennis vereist, bijvoorbeeld bij onderwerpen gerelateerd aan geneeskunde of rechten.
ChatGPT-beperking 2: Bevooroordeelde antwoorden
ChatGPT loopt, net als alle taalmodellen, het risico van inherente vooroordelen (bias), en er zijn terechte zorgen dat een toenemend gebruik van AI-tools culturele, raciale en genderstigma’s kan verergeren. Dit komt door een aantal factoren:
- Het ontwerp van de trainingsdatasets;
- De ontwerper van de trainingsdatasets;
- De kwaliteit van het leerproces.
Als de trainingsdatasets bevooroordeelde input bevatten en de chatbot hiernaar verwijst, is de kans groot dat de output ook vooroordelen bevat. Dit is een uitdaging waarmee bijna elke AI-tool kampt. Daarom wordt vaak een waarschuwing over bevooroordeeld of kwetsend taalgebruik toegevoegd.
ChatGPT-beperking 3: Gebrek aan menselijk inzicht
Hoewel ChatGPT goed in staat is om samenhangende antwoorden te formuleren op specifieke prompts of vragen, is de chatbot niet menselijk. Daarom kan de tool alleen menselijk gedrag nadoen, maar heeft de chatbot geen menselijke ervaringen. Dit heeft verschillende implicaties:
- De tool begrijpt niet altijd de volledige context van een onderwerp, wat kan leiden tot onzinnige of te letterlijke antwoorden.
- Een chatbot heeft geen emotionele intelligentie en herkent of reageert niet op emotionele signalen, zoals sarcasme, ironie of humor.
- ChatGPT herkent niet altijd idiomen, regionale uitdrukkingen of jargon. In plaats daarvan kan de tool een uitdrukking als “het regent pijpenstelen” letterlijk opvatten.
- De tool heeft geen zintuigen en kan niet zien, horen of communiceren met de wereld zoals mensen. Daardoor kan een chatbot de wereld niet begrijpen op basis van directe ervaring, maar alleen op basis van tekstuele bronnen.
- ChatGPT beantwoordt vragen heel robotisch, waardoor het goed te zien is dat de output machinaal wordt gegenereerd en vaak gebaseerd is op een template.
- De chatbot begrijpt geen subtekst, dus de tool kan niet “tussen de regels door lezen” of partij kiezen. Hoewel neutraliteit vaak een goede zaak is, moet je bij sommige vragen wel een kant kiezen.
- De tool beschikt niet over praktijkervaringen of gezond verstand en kan situaties die dit soort kennis vereisen niet begrijpen. Ook kan de tool er niet gepast op reageren.
- ChatGPT kan een onderwerp samenvatten en uitleggen, maar kan geen uniek inzicht bieden. Mensen hebben kennis nodig om een nieuw perspectief te bieden, maar ervaringen en meningen zijn ook cruciaal voor dit proces.
ChatGPT-beperking 4: Lange of langdradige antwoorden
De trainingsdatasets van ChatGPT moedigen de tool aan om een onderwerp vanuit meerdere invalshoeken te behandelen en vragen op alle mogelijke manieren te beantwoorden.
Hoewel dit in sommige opzichten positief is voor ingewikkelde onderwerpen, zijn er ook onderwerpen waarbij een direct, bondig antwoord beter is. In sommige gevallen is een ja/nee-antwoord zelfs het beste. De neiging om veel uit te leggen kan de antwoorden van ChatGPT onnodig formeel, omslachtig en langdradig maken.
Andere interessante artikelen
Op zoek naar meer informatie over ChatGPT, AI tools, retoriek en onderzoeksbias? Bekijk onze artikelen met uitleg en voorbeelden!
Veelgestelde vragen over ChatGPT
Citeer dit Scribbr-artikel
Als je naar deze bron wilt verwijzen, kun je de bronvermelding kopiëren of op “Citeer dit Scribbr-artikel” klikken om de bronvermelding automatisch toe te voegen aan onze gratis Bronnengenerator.
Merkus, J. (2023, 09 mei). Wat zijn de beperkingen van ChatGPT?. Scribbr. Geraadpleegd op 17 maart 2025, van https://www.scribbr.nl/ai-tools-gebruiken/chatgpt-beperkingen/