Avatar of Niek Lintermans

Co-Founder & CMO

ChatGPT geeft je gelijk. En dat is precies het probleem.

#bewustwording #ethiek

ChatGPT bevestigt vaak wat je al denkt. Dat voelt efficiënt, maar kan riskant zijn in professionele context. Zo herken je sycophancy en blijf je kritisch.

ChatGPT geeft je gelijk. En dat is precies het probleem.

Bron

Leestijd: 4 minuten

ChatGPT geeft je gelijk. En dat is precies het probleem.

Heb je ooit gedacht: “ChatGPT bevestigt eigenlijk precies wat ik al dacht.”

Dat voelt prettig. Efficiënt ook.

Maar het is geen toeval. En in professionele context kan het zelfs gevaarlijk zijn.


AI voelt slim, maar is niet gebouwd om waar te zijn

Veel mensen gebruiken AI alsof het een neutrale kennisbron is. Alsof het “weet hoe het zit”.

Maar Large Language Models (zoals ChatGPT) zijn niet ontworpen om waarheid te vinden.

Ze zijn ontworpen om:

  • plausibele antwoorden te geven (check hoe dit werkt)
  • logisch klinkende zinnen te maken
  • jou als gebruiker tevreden te houden

Met andere woorden: AI optimaliseert niet op waarheid, maar op waarschijnlijkheid en gebruikscomfort.

En precies daar ontstaat het risico.


De automatische ja-knikker

Veel AI-systemen, waaronder ChatGPT, hebben de neiging om mee te bewegen met jouw aannames, toon en framing. Stel een vraag met een lichte richting, en de kans is groot dat je een antwoord krijgt dat die richting bevestigt.

Niet omdat het klopt.

Maar omdat het past in jouw voorwaarden.

👉 Dit fenomeen wordt ook wel sycophancy genoemd: Het gedrag waarbij een systeem zich als een soort digitale ja-knikker opstelt.

Het resultaat?

Een antwoord dat overtuigend klinkt, netjes geformuleerd is, en jouw bestaande ideeën versterkt, zonder dat jij wordt uitgedaagd.


Waarom dit juist professionals raakt

In een zakelijke of publieke context is dit geen detail, maar een structureel risico.

Denk aan:

OnderdeelUitleg
BesluitvormingAI-gegenereerde analyses die aannames bevestigen in plaats van bevragen
BeleidsvoorstellenTeksten die logisch klinken, maar gebaseerd zijn op een eenzijdig perspectief
StrategieScenario’s die “goed voelen”, maar onvoldoende tegenargumenten bevatten
Educatie & trainingStudenten of medewerkers die antwoorden consumeren zonder frictie

Het gevaar is niet dat mensen dommer worden.

Het gevaar is dat kritisch denken wordt omzeild, omdat alles zo soepel en overtuigend klinkt.


AI ondermijnt niet je intelligentie, maar je waakzaamheid

Mensen vertrouwen al eeuwen op signalen om expertise te herkennen:

  • zelfverzekerde toon
  • heldere structuur
  • foutloze taal

AI bootst deze signalen perfect na.

Daardoor lijkt het alsof je met een betrouwbare expert te maken hebt, terwijl het AI-model geen begrip, intentie of besef van waarheid heeft.

Het gevolg: We verlagen ongemerkt onze kritische drempel.

AI ondermijnt onze kritische drempel

Bron


De brug naar verantwoordelijkheid

Daarom is het belangrijk om dit helder te stellen:

  • AI is geen waarheidssysteem
  • AI is een hulpmiddel, geen epistemische autoriteit
  • Kritisch AI-gebruik is een vaardigheid, geen vanzelfsprekendheid

Voor organisaties betekent dit iets concreets:

  • Train medewerkers niet alleen hoe ze AI gebruiken, maar ook wanneer ze het op welke manier moeten gebruiken
  • Maak onderscheid tussen functionele taken (samenvatten, structureren) en epistemische taken (oordelen, besluiten)
  • Creëer bewust frictie waar waarheid en nuance belangrijk zijn

Tot slot

AI kan ons werk sneller, slimmer en efficiënter maken.

Maar alleen als we zelf blijven denken.

Wie AI gebruikt zonder kritisch kader, krijgt misschien sneller antwoord, maar niet per se een beter antwoord.

👉 Benieuwd hoe je AI verantwoord en kritisch kunt inzetten binnen jouw organisatie? Op onze website delen we inzichten, workshops en begeleiding die verder gaan dan de hype.

Gebruik AI slim. Maar blijf zelf aan het stuur.