column

Hallucineren kun je leren

16 dec 2025

De rechtbank vermoedt dat een advocaat zich schuldig heeft gemaakt aan ChatGPT-jurisprudentie, voor columnist Lucienne van der Geld het woord van 2025. 'De rechter zegt wat studenten allang weten.'

Mijn woord van 2025 staat niet in een vrolijk lijstje met nieuwe woorden van Van Dale. Het stond verstopt in een uitspraak op rechtspraak.nl. En de winnaar is: ChatGPT-jurisprudentie.

Ik trof het aan in een uitspraak van de rechtbank Noord-Nederland over de verdeling van een erfenis. De advocaat van een van de erfgenamen beriep zich op jurisprudentie van de Hoge Raad. Alleen: de data van de vermeende uitspraken klopten niet, net als De ECLI-nummers die de advocaat gebruikte. En dan die dodelijke zin: ‘De rechtbank vermoedt dat de vindplaatsen via ChatGPT of een vergelijkbare zoekmachine zijn opgedoken en zonder controle in de processtukken zijn overgenomen.’

Jurisprudentie is het geheel aan rechterlijke uitspraken; vaak zie je pas in de vonnissen van rechters hoe een wet in echte zaken uitpakt. Wanneer rechters vaker over dezelfde rechtsvraag uitspraak doen, ontstaat er een patroon in de jurisprudentie. Dat patroon gebruiken advocaten om hun betoog op te bouwen: kijk, zo deed de Hoge Raad het toen en toen, dus zo moet het nu ook.

Elke uitspraak die op rechtspraak.nl verschijnt, krijgt een eigen ECLI-nummer, een uniek kenmerk waarmee je de zaak terugvindt. ChatGPT-jurisprudentie staat voor nepjurisprudentie: uitspraken die in die vorm niet bestaan, waar datum, rechter en/of ECLI-nummer niet bij elkaar passen, of die inhoudelijk iets totaal anders behandelen. Een flinke hallucinatie dus.

‘ChatGPT is niet dom, maar het voorspelt woorden, geen feiten’

Studenten weten dat ChatGPT een prachtige literatuurlijst kan fabriceren waarin tussen echte artikelen vrolijk bronnen opduiken die nergens te vinden zijn. Titels die goed klinken, tijdschriftnamen die verdacht op echte tijdschriften lijken, maar toch net niet helemaal. ChatGPT is niet dom maar voorspelt woorden, geen feiten.

De rechter in deze zaak verwijt de advocaat geen AI-gebruik. Maar zegt wat studenten allang weten: je moet de bronnen die AI je geeft controleren. Daarmee is ChatGPT-jurisprudentie niet alleen een grappige term, maar ook een nuttig etiket. Voor jurisprudentie die lijkt op echte rechtspraak, maar dat niet is.

De Orde van Advocaten publiceerde onlangs AI-aanbevelingen. Rechters hadden inmiddels bij meerdere advocaten al op ChatGPT-jurisprudentie gewezen. De kern van de aanbevelingen van de Orde is dit: AI mag een hulpmiddel zijn, maar de advocaat blijft zelf verantwoordelijk voor wat er de deur uit gaat, en voor de belangen van de cliënt.

Ik doe alvast een nominatie voor het woord van 2026: hallucinatiecheck. Geen hippe techterm, maar een simpele reflex. Steeds weer de vraag: Heeft deze bron ooit het daglicht gezien?

We hebben geen probleem met slimme AI-systemen, we hebben een probleem met slordige mensen. En daar helpt geen enkel taalmodel tegen, hooguit een echte rechter die vriendelijk de advocaat wijst op nepjurisprudentie.

Lees alle columns van Lucienne van der Geld

Leuk dat je Vox leest! Wil je op de hoogte blijven van al het universiteitsnieuws?

Bedankt voor het toevoegen van de vox-app!

Geef een reactie

Vox Magazine

Het onafhankelijke magazine van de Radboud Universiteit

lees de laatste Vox online!

Vox Update

Een directe, dagelijkse of wekelijkse update met onze artikelen in je mailbox!

Wekelijks
Nederlands
Verzonden!