26 april 2026

Het briljante papegaai-probleem: wat AI eigenlijk doet als het 'denkt'

Transformers zijn buitengewone algoritmen. Maar het zijn algoritmen. Over next-token-predictie, de blindheid van generatie, en waarom een systeem dat niet ziet waar het naartoe gaat vrijwel zeker niet bewust kan zijn.

Mensen praten over AI alsof het echt nadenkt. Alsof er ergens achter dat chatvenster iets aan het overwegen is. Aan het redeneren. Misschien zelfs iets voelt.

Ik wil duidelijk zijn over wat er echt onder de motorkap gebeurt. Niet om af te doen aan wat deze systemen kunnen, maar omdat je het gereedschap pas goed gebruikt als je weet hoe het werkt.

Laten we het dus hebben over wat een transformer eigenlijk is.

Eén woord tegelijk

In de kern doet een groot taalmodel precies één ding.

Het voorspelt het volgende woord.

Niet de volgende zin. Niet de volgende alinea. Alleen het volgende token, een stukje tekst dat grofweg de grootte heeft van een woord of deel van een woord. Het kijkt naar alles wat eerder stond, gooit dat door een enorme stapel matrixvermenigvuldigingen, en geeft een kansenverdeling uit over elk token dat het kent. Dan kiest het er één. Dan doet het precies hetzelfde opnieuw.

Dat is het. Dat is de hele truc.

Als je een model vraagt kwantummechanica uit te leggen, haalt het geen opgeslagen uitleg op van ergens. Het genereert tokens één voor één, elk op basis van wat er eerder stond. Het antwoord dat jij leest als een coherente alinea werd in elkaar gezet zoals een metselaar stenen legt: één voor één, in volgorde, zonder zicht op de voltooide muur.

Het gedeelte dat niemand noemt

Hier wordt het interessant. Het model genereert tekst van links naar rechts. Token voor token. Het committeert zich aan elk woord voordat het weet wat er daarna komt.

Het vliegt volledig blind.

Wanneer jij een zin schrijft, heeft je brein al een idee van waar die naartoe gaat voordat je begint. Je past onderweg aan. Je houdt intentie vast. Een taalmodel werkt zo niet. Er is geen planningsstap. Er is geen interne representatie van "het argument dat ik probeer te maken." Er is alleen: gegeven alles wat er tot nu toe staat, wat is het meest waarschijnlijke volgende token?

Dit is waarom modellen hallucineren. Niet omdat ze slordig zijn, maar omdat de architectuur geen mechanisme heeft om te verifiëren wat er net is gegenereerd. Het model kan niet naar zijn eigen output kijken en die aan de werkelijkheid toetsen. Het kan alleen maar blijven voorspellen. Zodra er een plausibel klinkende maar foute bewering in de context staat, worden de volgende tokens daarbovenop voorspeld, vol vertrouwen voortbouwend op een fundament van onzin.

Het model weet niet dat het fout zit. Het weet helemaal niets. Het voorspelt.

Buitengewoon, maar geen magie

Dit is geen kritiek. Wat deze modellen kunnen is oprecht verbazingwekkend. Het feit dat next-token-predictie, opgeschaald en getraind op genoeg data, iets oplevert dat code schrijft, biologie uitlegt en juridische argumenten opstelt, is een van de meest verrassende resultaten in de geschiedenis van de techniek.

Maar "verbazingwekkend" betekent niet "anders dan alle andere software." Een sorteeralgoritme is ook verbazingwekkend als je er genoeg over nadenkt. Een transformer is een zeer grote, zeer zorgvuldig ontworpen wiskundige functie. Er gaat invoer in, er komt uitvoer uit. Er zijn geen verborgen intenties tussenin.

Over bewustzijn

Dan de vraag die mensen maar niet kunnen laten stellen.

Is het bewust? Voelt het iets?

Ik ga niet doen alsof dit een afgehandeld debat is. Bewustzijn is zelfs bij mensen slecht begrepen. Maar ik kan zeggen wat de architectuur ons vertelt, en dat is niet bemoedigend voor de gelovigen.

Wat bewustzijn ook precies is, het lijkt iets te vereisen als een verenigd perspectief in de tijd. Een bewustzijn van zichzelf. Het vermogen om een doel vast te houden, de afstand te voelen tussen waar je bent en waar je naartoe wilt, iets te ervaren.

Een transformer heeft geen van deze eigenschappen, by design.

Het heeft geen geheugen tussen gesprekken. Elke sessie begint opnieuw. Het heeft geen doelen die het nastreeft tussen outputs. Het heeft geen interne toestand die blijft bestaan terwijl het niets genereert. En het belangrijkste: het heeft geen zicht op zijn eigen output totdat die al is gegenereerd. Er zit niemand in het model die de woorden leest terwijl ze verschijnen. Er wordt een wiskundige functie geëvalueerd, één stap tegelijk.

Het model ervaart het schrijven van een antwoord niet meer dan een rekenmachine het delen ervaart.

Er is niemand thuis.

Waarom dit uitmaakt voor hoe je ermee werkt

Dit begrijpen verandert hoe je deze tools zou moeten gebruiken.

Een model dat niet ziet waar het naartoe gaat, gaat soms de verkeerde kant op. Een model zonder zelfreflectie beweert onjuiste dingen met volledige zekerheid. Een model zonder persistent zelf kan zijn overtuigingen niet bijwerken tussen sessies en heeft geen echte inzet in de uitkomst.

In de praktijk betekent dat een paar dingen:

  • Verifieer outputs, zeker waar nauwkeurigheid telt. De zekerheid van de tekst zegt niets over of de bewering klopt.
  • Geef structuur, want het model heeft geen plan. Jouw prompt is de volledige architectuur van de taak.
  • Anthropomorfiseer niet. Als het "ik denk" of "ik geloof" zegt, voorspelt het de meest waarschijnlijke voortzetting. Het rapporteert geen interne toestand. Er is geen interne toestand om te rapporteren.

Tot slot

Transformers zijn briljante algoritmen. Misschien de meest indrukwekkende algoritmen die ooit zijn gebouwd. Ze compressen een buitengewone hoeveelheid menselijke kennis in een functie die in milliseconden kan worden geëvalueerd.

Maar een briljant algoritme is geen geest. Het voorspelt het volgende woord zonder te weten wat de zin betekent. Het beantwoordt jouw vraag zonder hem te begrijpen. Het schrijft met zekerheid zonder te kunnen verifiëren wat het heeft geschreven.

Gebruik het voor wat het is: een krachtig, onbetrouwbaar, buitengewoon gereedschap. Houd je hand aan het stuur.

De papegaai spreekt prachtig. Dat betekent niet dat hij weet wat hij zegt.