Hallucineert de AI, of rekent hij gewoon logisch?

Generatieve AI is hot. En indrukwekkend. En soms ronduit verbluffend. Vraag wat je maar wilt en de kans is groot dat een AI als ChatGPT binnen enkele seconden met een keurig geformuleerd antwoord op de proppen komt. Vlot, overtuigend, vaak met een vleugje beleefdheid. Maar… klopt het ook? Dat is de échte vraag.

Wat doet een generatieve AI eigenlijk?
Een generatieve AI — zoals ChatGPT — beschikt over een immense berg data. Die data bestaat uit teksten, documenten, websites, boeken, en ja, ook uit vragen en antwoorden van gebruikers zoals jij en ik. Maar laten we vooral helder blijven: een AI is niets meer (en niets minder) dan buitengewoon slimme software. Software die rekent. Heel snel en heel krachtig. Wat rekent die AI dan?
Heel simpel: op basis van alles wat hij weet (of denkt te weten) bepaalt hij wat het meest logische, meest waarschijnlijke antwoord is op jouw vraag. Niet omdat hij de waarheid kent. Niet omdat hij ethisch afweegt wat waar of niet waar is. Maar puur omdat zijn algoritme zegt: “Als mensen deze vraag stellen, is dit antwoord de grootste gemene deler van wat hij in zijn data tegenkomt.”

En daar zit precies het gevaar!
Want stel dat een bepaalde misvatting heel vaak is opgeschreven. En heel vaak is herhaald. En dus in de data van de AI zit. Dan is het helemaal niet vreemd dat de AI precies dát antwoord geeft. Want in zijn logica is dat correct: het is wat de data hem vertelt. Of het waar is? Dat is een heel andere kwestie.

Een voorbeeld: de WiFi-mythe
Vraag aan een AI: “Waar staat WiFi voor?”
Grote kans dat het antwoord komt: “WiFi staat voor Wireless Fidelity, net zoals HiFi staat voor High Fidelity.” Klinkt logisch. Klinkt technisch correct. En het wordt vaak gezegd. Maar… het is onjuist.
WiFi staat nergens voor. Het is een marketingnaam. Bedenkt omdat het lekker klonk. En omdat mensen het makkelijk onthouden. Maar niet omdat het iets betekent. En toch geven veel AI’s dit foute antwoord — omdat het duizenden keren op het internet is gezet.

Dit noemen we hallucineren
Wanneer een AI een antwoord geeft dat wel logisch klinkt, maar feitelijk onjuist is, noemen we dat hallucineren. Dat zegt overigens helemaal niets over de kwaliteit van de AI. Het zegt vooral iets over hoe wij als mensen de output van een AI moeten behandelen.
Een AI kent geen waarheid. Kent geen onwaarheid. Kent geen ethiek. Een AI rekent. Dat doet hij ontzettend goed en razendsnel. Maar het is en blijft een berekening op basis van data. En data is zo goed — of zo slecht — als wat er in staat.

Verantwoordelijkheid ligt bij de mens
De conclusie is eenvoudig: gebruik AI. Maak er dankbaar gebruik van. Laat je verrassen door de snelheid en creativiteit van de antwoorden. Maar blijf zelf nadenken. Want het is en blijft jouw verantwoordelijkheid om te beoordelen of een gegeven antwoord klopt. Het is niet de schuld van de AI als dat niet zo is. Maar het is ook geen excuus voor jou als je het kritiekloos overneemt. AI hallucineert niet omdat hij dom is. Hij hallucineert omdat mensen dat hem hebben geleerd.
En daar kunnen we alleen zelf iets aan doen!


Gerelateerde artikelen