Wie hallucineert hier eigenlijk?
- Luc Van De Steene
- 15 jan
- 3 minuten om te lezen

AI hallucineert, zeggen we. Het verzint dingen. Het is onbetrouwbaar, vooringenomen, soms zelfs gevaarlijk. De verontwaardiging is groot, vooral op sociale media, waar de fouten (van een ander) gretig worden uitvergroot. Wat daarbij zelden wordt opgemerkt, is hoe vertrouwd dit alles eigenlijk klinkt. Alsof we ons niet elke dag laten leiden door halve waarheden, stellige overtuigingen en morele zekerheden die vooral goed voelen, en zelden nog worden bevraagd.
Het probleem is niet dat AI fouten maakt. Dat was te verwachten. Het ongemak zit elders: in de verbazing waarmee we reageren, alsof foutloosheid altijd de norm was. Alsof mensen zelf geen meesters zijn in het construeren van overtuigende verhalen op wankele fundamenten. Misschien confronteert AI ons niet alleen met haar beperkingen, maar ook met iets waar we steeds slechter in zijn geworden: zelfkritiek.
Een spiegel die niet vleit
Wat vandaag āhallucinatiesā heet wanneer een machine ze produceert, is in menselijke vorm al eeuwenoud. We trekken conclusies op basis van onvolledige informatie. We doen dat uitdrukkelijk als kind al, en die kind-conclusies worden zelden nog bijgesteld. We verwarren vertrouwdheid met waarheid en vullen gaten in ons bewustzijn moeiteloos op met aannames. Het verschil is niet dat AI het doet en wij niet, maar dat AI het zichtbaar maakt, en wij doorgaans niet graag in die spiegel kijken.
Sterker nog: waar AI soms expliciet aangeeft fout te zijn, doen mensen op sociale media vaak het tegenovergestelde. Hoe stelliger de uitspraak, hoe groter het bereik. Twijfel verkoopt niet. Nuance al helemaal niet. Zelfzekerheid daarentegen werkt als een magneet, ook wanneer ze inhoudelijk leeg is.
We zoeken wat we al denken
Een van de hardnekkigste denkfouten is de neiging om vooral informatie te zoeken die bevestigt wat we al geloven. Niet omdat we dom zijn, maar omdat ons brein efficiƫnt wil zijn. Het kost minder energie om bevestiging te vinden dan om onzekerheid toe te laten. Sociale media hebben dat mechanisme niet uitgevonden, maar wel geperfectioneerd. Algoritmes serveren ons precies wat aansluit bij onze voorkeuren, verontwaardiging inbegrepen.
Wanneer AI ditzelfde patroon volgt ā leren van bestaande data, dominante stemmen versterken ā noemen we het bias. Terecht. Maar het is moeilijk die kritiek ernstig te nemen als we tegelijk blijven doen alsof onze eigen meningen spontaan, onafhankelijk en zorgvuldig tot stand komen.
Zekerheid als verdienmodel
Er is nog een denkfout die opvallend weinig aandacht krijgt in het debat: de illusie van kennis. Hoe minder we weten over een onderwerp, hoe zekerder we ons er soms over voelen. Dat verklaart waarom complexe themaās op sociale media vaak worden herleid tot slogans, kampen en morele verontwaardiging. Niet omdat de waarheid eenvoudig is, maar omdat eenvoud hanteerbaar is.
AI wordt verweten dat het overtuigend onzin kan verkopen. Maar overtuiging zonder onderbouwing is al lang een menselijk exportproduct. Het verschil is dat wij onze overtuigingen moreel inkleden: ze worden een deel van wie we zijn. Wie ons tegenspreekt, valt niet zomaar een idee aan, maar onze identiteit. Dat maakt zelfcorrectie bijzonder moeilijk.
Verhalen boven feiten
Ons brein houdt van verhalen. Oorzaken, bedoelingen, schuldigen. Zelfs wanneer de werkelijkheid rommelig, ambigu of toevallig is, verzinnen we liever een samenhangend narratief dan toe te geven dat we het niet weten. AI doet dat soms ook: ze vult gaten in met plausibele zinnen. Wij doen hetzelfde, maar noemen het ervaring, intuĆÆtie of gezond verstand.
Misschien is dat wel de meest ongemakkelijke parallel. Niet dat AI fouten maakt, maar dat haar fouten zo herkenbaar zijn. Ze tonen hoe gemakkelijk betekenis wordt verward met waarheid, en hoe graag we dat laten gebeuren.
De afwezigheid van zelfkennis
De heisa rond AI zegt minder over technologie dan over onze cultuur: twijfel wordt al snel gezien als zwakte en zelfkritiek als verdacht. Iedereen moet een mening hebben, maar bijna niemand lijkt nog bereid die even te parkeren. Dat gebrek aan zelfkennis heeft gevolgen: het versterkt polarisatie, ondermijnt vertrouwen en jaagt morele verontwaardiging aan.
Misschien ligt daar een onverwachte waarde van artificiƫle intelligentie. Niet als orakel, niet als vervanging van menselijk denken, maar als confronterende spiegel. Een systeem dat ons dwingt om opnieuw na te denken over wat fouten zijn, hoe ze ontstaan, en waarom we ze bij anderen zo scherp zien maar bij onszelf zo moeilijk.
Dat zou pas echt intelligent gebruik zijn van AI: niet alleen haar verbeteren, maar ook onszelf.



Opmerkingen