top of page

Hallo hallucinatie

Bijgewerkt op: 23 mrt

We zien niet wat er is. We zien wat we verwachten te zien. (Foto © Unsplash)
We zien niet wat er is. We zien wat we verwachten te zien. (Foto © Unsplash)

Alles wat nieuw is, krijgt kritiek. Zo ook AI.

Wie er te blind op vertrouwt, komt in het nieuws.

Wie gezien wil worden, ís gezien.

AI zet ons in ons bloot gat. Genadeloos.

En precies daar kan het gesprek beginnen.


De kritiek op AI zegt vaak meer over onze verwachtingen van rationaliteit en foutloosheid dan over AI zelf. We zien dat blindelings – of wijselijk – over het hoofd.

En dan is er nog de drang om te scoren: teksten overladen met vermeende citaten, bedoeld om aandacht te trekken. Ook dat is een interessante onderstroom.


We verwijten AI hallucinaties, vertekeningen, tunnelvisie.

Tegelijk normaliseren we diezelfde mechanismen bij onszelf.

Sommigen gebruiken de gebreken van AI om zichzelf als betrouwbaarder te positioneren, terwijl ons brein exact dezelfde cognitieve valkuilen kent; alleen minder zichtbaar.


AI maakt denkfouten expliciet.

Het menselijk brein verhult ze met overtuiging, emotie en groepsdynamiek.

AI is een vergrootglas op onze eigen cognitieve patronen.


Door een vergrootglas zie je meer.


Mensen zoeken informatie die hun overtuigingen bevestigt: de bekende bias. Sociale media versterken dat tot eindeloze echokamers.

AI wordt verweten dat het napraat, maar het menselijk brein doet dit al millennia; alleen selectiever.


Niet omdat we dom zijn, maar omdat ons brein energie wil sparen.

AI trekt zich daar niets van aan, integendeel. Opnieuw: die spiegel.

Als we niet een beetje op ons energiepeil letten, komt het niet goed.

Of we stevenen af op een burn-out – de bekende energiestoornis.


Wist je dat ons brein slechts 2% van ons lichaamsgewicht uitmaakt, maar ongeveer 20% van onze energie verbruikt? Als het daar overbelast raakt, voel je dat meteen – migraine, bijvoorbeeld. 

In onveilige omstandigheden, zoals vandaag voor velen het geval is, gaat dat systeem overuren draaien. Het begint te tollen in die bovenkamer. Soms lijkt het alsof een samenleving die structureel op onveiligheid leunt, precies dat effect in stand houdt: een chronische staat van onrust waarin helder denken steeds moeilijker wordt.

Mensen verwarren vertrouwdheid met waarheid.Hoe minder iemand weet, hoe zekerder hij zich vaak voelt – het Dunning-Kruger-effect.

AI zegt soms expliciet: “Ik kan het mis hebben.”

Mensen doen dat zelden. Zeker online.


De nuance verdwijnt.

Debatten worden geen dialogen.

De verbinding raakt zoek.


Wie hallucineert hier eigenlijk vaker: het systeem dat zijn onzekerheid toont of het brein dat haar verbergt? 


Ons brein wil samenhang, oorzaak en betekenis, ook waar die er niet zijn.

We verkiezen nog liever een fout verhaal boven geen verhaal.


AI genereert soms overtuigende maar onjuiste verhalen.

Mensen doen hetzelfde, maar noemen het ‘mening’, ‘buikgevoel’ of zelfs ‘ervaring’.


We spiegelen ons aan de groep.

Morele verontwaardiging werkt verslavend.

Zelfkritiek verdwijnt zodra identiteit meespeelt.

AI heeft geen identiteit te verdedigen. Wij wel.

En precies dat maakt menselijke denkfouten hardnekkiger.


Wanneer heb jij voor het laatst actief gezocht naar informatie die je mening tegensprak?Hoe zeker voelt een overtuiging aan vlak vóór ze verkeerd blijkt?


De grootste bedreiging is niet dat AI onze denkfouten overneemt, maar dat ze ons confronteert met denkfouten die we nooit echt hebben leren herkennen, laat staan corrigeren.


Veel heisa wijst zelden op veel zelfkennis.

AI maakt zichtbaar hoe fragiel onze aanspraak op rationaliteit in werkelijkheid wel is. 


 
 
 

Opmerkingen


  • Black Twitter Icon
  • Black Facebook Icon

© 2025 by Luc Van De Steene. Powered and secured by Wix

bottom of page