Abonneer Log in

Het Sinterklaas-syndroom

  • Thomas Goorden - Activist in het PFAS-dossier en auteur van ‘Alles komt goed’ (epo, 2022)
  • 16 mei 2023

We geloven graag in de mythe van de rationaliteit. In werkelijkheid draaien onze hersenen op dezelfde patroonherkenning als AI. Hoe vaker je aan een bepaald idee wordt blootgesteld, hoe hoger de kans dat je er in begint te geloven.

© Getty

Kinderen worden, generatie na generatie, wijsgemaakt dat er een man met een grote rode hoed bestaat, Sinterklaas genaamd, die elk jaar cadeautjes brengt voor brave kinderen. Tot ze op een bepaald moment ontdekken dat het allemaal één grote leugen is. Dit is een voorbeeld van een 'ontologische shock', een ervaring die ons dwingt onze kijk op de werkelijkheid te herzien.

Zo'n ontologische shock kan ook positief geïnterpreteerd worden. In dit geval leert het kinderen dat volwassenen, inclusief hun ouders, kunnen liegen. Sterker nog, het leert hen (en ons) dat zo'n leugen heel grootschalig kan zijn. Dat bakkers, uitgevers, wanhopige ouders, zelfs de openbare televisie, er allemaal spontaan aan mee kunnen werken, zonder dat een schimmig comité hen aanstuurt. Gewoon, omdat ze er allemaal een belang bij hebben.

Stel je nu even voor dat iets zoals die Sinterklaas-leugen veel langer en hardnekkiger wordt volgehouden. Dat je er als volwassene nog steeds van overtuigd bent. Hoe zou je dan reageren, na niet enkele maar misschien zelfs tientallen jaren, wanneer iemand tegen je komt beweren dat er bedrog in het spel zit?

PFAS

Een praktisch en recent voorbeeld is natuurlijk het PFAS-schandaal, waarbij velen niet geloofden dat het hele Toekomstverbond op een leugen was gebaseerd. Dat er een doofpotoperatie bestond over één van de zwaarste vervuilingen van de voorbije twintig jaar, louter om een tunnel te kunnen bouwen.

Tijdens een ontologische shock willen veel mensen, ook op redacties, het liefst gewoon terug naar de oude consensusrealiteit.

Zelfs nu nog, vele jaren later, zijn er nog steeds mensen die dit niet geloven, wier begrip van de realiteit hoegenaamd niet is aangetast door het PFAS-schandaal. Helemaal onlogisch is dat niet, omdat de investeringen in de 'illusie van Oosterweel' ondertussen vele mensenlevens in manuren en honderden miljoenen euro's omvatten. Het is de reden waarom een bepaalde toxicoloog aan de start van het PFAS-schandaal zo gemakkelijk de weg vond naar televisiestudies om te melden dat het allemaal 'toch niet zo'n probleem is'. Tijdens een ontologische shock willen veel mensen, ook op redacties, het liefst gewoon terug naar de oude consensusrealiteit.

AI

Ook de huidige AI-ontwikkelingen leiden tot ontologische shocks. Een voorbeeld hiervan is Geoffrey Hinton, een 75-jarige coryfee uit de AI-wereld, die geschokt was toen hij ontdekte dat een taalmodel van Google genaamd 'PaLM' een mop kon uitleggen. Hij dacht dat dit nog jaren buiten het bereik van AI zou liggen en dat er veel meer rekenkracht nodig zou zijn, iets vergelijkbaar met de menselijke hersenen zelf. Dat bleek dus gewoon niet te kloppen. De toekomst waar hij nog tientallen jaren voor nodig achtte is gewoon hier, nu en het draait gewoon op een ordinaire laptop. Geoffrey Hinton zocht in paniek de uitgang bij Google, met zijn recent gebroken wereldbeeld op zak.

AI-modellen kunnen, opvallend genoeg, ook zelf ontologische shocks ervaren.

AI-modellen kunnen, opvallend genoeg, ook zelf ontologische shocks ervaren. Bijvoorbeeld wanneer een neuraal netwerk getraind is om honden en katten te onderscheiden, maar dan een foto van een Tasmaanse buidelwolf te zien krijgt. Google Cloud Vision is er bijvoorbeeld 93% zeker van dat de Tasmaanse buidelwolf een hond is. Wie gaat aan deze arme AI uitleggen dat het eigenlijk een uitgestorven buideldier betreft?

De vraag is ook hoe vasthoudend AI moet zijn aan de eigen overtuigingen en hoeveel bewijs nodig is om van mening te veranderen. Hoe vaak moet je herhalen dat 2 + 2 gelijk is aan 5, voor zo'n machine je stelling overneemt? Of, omgekeerd, stel dat een AI met een verkeerde of onvolledige dataset is getraind, zou het dan goed zijn als het hardnekkig weigert om nieuwe informatie te aanvaarden? Wat zouden we vinden van een AI die weigert te geloven dat de Tasmaanse buidelwolf ooit heeft bestaan?

HET SINTERKLAAS-SYNDROOM

De mens zit natuurlijk met exact hetzelfde dilemma wanneer we geconfronteerd worden met tegenstrijdige informatie. Precies hoe hardnekkig mag of moet je vasthouden aan ideeën waar je op dit moment mee rondloopt? Hoeveel tegenbewijs heb je nodig voor je bereid bent je begrip van de wereld aan te passen? Te weinig en je bent een naïeveling die eender wat gelooft. Te veel en je bent een onverbeterlijke koppigaard die nooit (meer) van mening verandert.

Hoeveel tegenbewijs heb je nodig voor je bereid bent je begrip van de wereld aan te passen?

De mythe van de rationaliteit is dat we dit kunnen vermijden door logica en wetenschappelijke methodes te gebruiken. In werkelijkheid draaien onze hersenen op dezelfde patroonherkenning als AI. Hoe vaker je aan een bepaald idee wordt blootgesteld, hoe hoger de kans dat je er in begint te geloven. Wat we begrijpen als rationaliteit gaat vaak meer over hoe goed het past binnen de consensusrealiteit, de meest herhaalde patronen, dan iets dat het gevolg is van een onderbouwd onderzoek. Dat is niet over de hele lijn een slechte zaak, want dit systeem is wat ons in staat stelt om zeer snel - 'intuïtief' - onderscheid te maken tussen katten en honden, zonder al te veel inspanningen.

Het echte probleem ontstaat wanneer mensen deze mechanismen misbruiken, zoals in religies en politiek. Machthebbers weten maar al te goed wat de kracht van herhaling is. Het 'Sinterklaas-syndroom' beschrijft dan hoe moeilijk het kan zijn om zulke kunstmatig ingebakken, maar foute ideeën los te laten. Het is de letterlijke reden waarom de Vlaamse Canon is uitgevonden.

Stel je voor dat over pakweg een week flitsend nieuws zou rondvliegen waaruit blijkt dat delen van de overheid en het bedrijfsleven gedurende tientallen jaren de meest bizarre desinformatie hebben verspreid (en erger). Gewoon, omdat ze er allemaal een belang bij hebben. Hoe zou je er dan mee omgaan? (Het zou misschien wat veel zijn voor één jaar, naast een heuse AI-revolutie, maar zulke dingen kies je niet.)

DE KRACHT VAN DE GEDACHTEGANG

Voor oplossingen bij al deze problemen, kunnen we ook bij de AI-wereld gaan spieken. Om de kans op verkeerde inschattingen te verkleinen, is het duidelijk belangrijk om te leren uit een breed scala aan ervaringen en informatie. Het regelmatig bijwerken en leren van nieuwe informatie stelt zowel mensen als neurale netwerken in staat zich aan te passen aan veranderingen en nieuwe patronen te herkennen. Liefst geen informatie die je wordt opgedrongen door iemand met een overduidelijke agenda, maar uit zo kwalitatief mogelijke bronnen.

Spreken met anderen en het overwegen van verschillende standpunten kan de besluitvorming voor mensen verbeteren.

Het is ook nuttig om te leren uit fouten en feedback. Spreken met anderen en het overwegen van verschillende standpunten kan de besluitvorming voor mensen verbeteren, net zoals het combineren van verschillende computermodellen hetzelfde kan doen voor neurale netwerken. Het helpt ook enorm om een zogenaamde 'gedachtegang' op te bouwen, waarbij je elke tussenstap tot aan je uiteindelijke beslissing probeert te reconstrueren. Zijn er zaken die je enkel gelooft omdat ze vaak herhaald zijn, zonder interne logica? Bij ChatGPT verbeteren de resultaten merkbaar als je vraagt om zo'n gedachtegang op te bouwen, waarom zou dat bij ons niet zo zijn? Een soort interne Socratische dialoog als het ware.

Helaas zullen reactionaire stemmen tijdens een grote, maatschappelijke ontologische shock vaak de boventoon voeren, zeker aan de start van grootse onthullingen. Maar de realiteit dringt zich uiteindelijk toch op, ook aan wie er geen zin in heeft. Uiteindelijk zullen de meeste mensen toch toegeven dat de man met de half afzakkende baard gewoon nonkel Rudy is.

Abonneer je op Samenleving & Politiek

abo
 

SAMPOL ONLINE

40€/jaar

  • Je leest het magazine online
  • Je hebt toegang tot het enorme archief
MEEST GEKOZEN

SAMPOL COMPLEET

50€/jaar

  • Je ontvangt het magazine in de bus
  • Je leest het magazine online
  • Je hebt toegang tot het enorme archief
 

SAMPOL STEUN

100€/jaar

  • Je ontvangt het magazine in de bus
  • Je leest het magazine online
  • Je hebt toegang tot het enorme archief
  • Je krijgt een SamPol draagtas*
 

SAMPOL SPONSOR

500€/jaar

  • Je ontvangt het magazine in de bus
  • Je leest het magazine online
  • Je hebt toegang tot het enorme archief
  • Je krijgt een SamPol draagtas*

Het magazine verschijnt 10 keer per jaar; niet in juli en augustus.
Proefnummer? Factuur? Contacteer ons via info@sampol.be of op 09 267 35 31.
Het abonnementsgeld gaat jaarlijks automatisch van je rekening. Het abonnement kan je op elk moment opzeggen. Lees de Algemene voorwaarden.

Je betaalt liever via overschrijving?

Abonneren kan ook uit het buitenland.

*Ontdek onze SamPol draagtas.