Drie advocaten hebben een officiële waarschuwing ontvangen na verkeerd gebruik van AI bij het opstellen van processtukken. Twee van hen werden verplicht op een AI-cursus gestuurd. In alle gevallen bleek het probleem hetzelfde: citaten en verwijzingen naar rechtspraak die simpelweg niet klopten. Uitspraken die over een geheel ander onderwerp gingen, of die helemaal niet bestonden. Rechters merkten het op, en de toezichthouder schreef het op.
Wat is er precies misgegaan?
Wouter Timmermans, toezichthouder op de advocatuur in Gelderland, was duidelijk over wat hij aantrof. Advocaten hadden AI-gegenereerde tekst gebruikt in stukken richting de rechter, zonder te controleren of de aangehaalde uitspraken ook echt bestonden en relevant waren. Dat is niet een kwestie van pech of een kleine slip — het is een serieuze beroepsfout. Timmermans gaf ook aan dat er op dit moment nog meer onderzoeken lopen. Dit zijn dus niet de enige gevallen.
Het kernprobleem is niet dat AI werd ingezet, maar dat de output klakkeloos werd overgenomen. Generatieve AI produceert tekst die logisch en overtuigend klinkt, ook als de inhoud feitelijk niet klopt. Dat onderscheid is niet altijd direct zichtbaar. Pas wanneer iemand de bronnen echt naloopt, wordt de fout zichtbaar. En in een rechtszaal is het altijd iemand die dat doet.
Waarom dit de standaard gaat veranderen
Timmermans beschreef AI als een van de belangrijkste aandachtspunten voor toezichthouders in de komende jaren. De verwachting is dat advocaten AI steeds meer zullen inzetten, en daarmee ook dat het aantal meldingen zal toenemen. De huidige gevallen zijn een vroeg waarschuwingssignaal voor een trend die zich gaat verbreden.
De beroepsnorm schuift daarmee merkbaar op. Wie AI gebruikt, moet kunnen uitleggen hoe de output tot stand is gekomen, hoe die is geverifieerd en waarom die juridisch correct en relevant is. Dat is niet meer optioneel. Een verwijzing naar een niet-bestaande rechtszaak is geen stijlprobleem; het is een professionele misslag met reputatieschade, hogere proceskosten en toezicht als mogelijk gevolg.
Wat AI wél goed kan in de rechtspraktijk
Er is een duidelijk onderscheid te maken tussen waar AI nuttig is en waar het gevaarlijk wordt. Voor taken als het samenvatten van eigen stukken, het structureren van een betoog, het verbeteren van leesbaarheid of het inventariseren van zoekrichtingen is AI prima inzetbaar. Zodra AI begin te zeggen welke uitspraken er zijn, welke wetsartikelen van toepassing zijn of welke ECLI’s relevant zijn, begint het risicogebied. Op dat punt is onafhankelijke verificatie geen optie — het is een vereiste.
Technisch: wat een controleerbare workflow vereist
Een betrouwbare AI-workflow in de advocatuur werkt anders dan een chatbot die je vragen stelt. Het begint met bronbinding: AI mag alleen claims doen die herleidbaar zijn naar specifiek goedgekeurde bronnen, zoals Rechtspraak.nl, EUR-Lex of interne dossierstukken. Iedere verwijzing naar een uitspraak of wetsartikel moet automatisch worden gevalideerd — bestaat de ECLI, matcht de inhoud, is de uitspraak relevant voor hetgeen wordt beweerd?
Daarna komt de verificatiepipeline: een gestructureerde stap vóór elke export of indiening. Conflicten en inconsistenties worden gemarkeerd. En als laatste stap: een expliciete, gedocumenteerde review door een mens, met naam en tijdstempel. Zonder die stap is de output simpelweg niet exporteerbaar.
Tot slot het auditspoor. Modelversie, gebruikte bronnen, verificatieresultaten en de finale review — alles wordt gedocumenteerd en bewaard. Niet als bureaucratische nachtmerrie, maar als de ruggengraat van professionele verantwoording.
Standpunt
Als iemand die nauw betrokken is bij de ontwikkeling van CyberSecurity AD moet ik zeggen: dit soort berichten stemt me serieus tot nadenken. Niet omdat ik schrik van AI in de rechtszaal — AI heeft in de juridische praktijk een grote toekomst — maar omdat de gevallen die Timmermans beschrijft precies illustreren wat er mis gaat als je AI inzet zonder de juiste verificatiestructuur.
Ik begrijp de tijdsdruk waar advocaten mee werken. Dossiers zijn dik, deadlines zijn strak, en een tool die samengevat in drie zinnen kan uitleggen wat er in tweehonderd pagina’s staat is verleidelijk. Maar die verleiding heeft een prijs als de output niet systematisch wordt gecontroleerd.
Wat me ook opvalt is dat de discussie vaak gaat over “mag je AI gebruiken?” terwijl de echte vraag is “hoe gebruik je AI op een manier die juridisch verdedigbaar is?” Die twee zijn fundamenteel anders. De eerste vraag is inmiddels vrij eenvoudig te beantwoorden — ja, maar met zorgvuldigheid. De tweede vraag is technisch van aard en gaat over architectuur, verificatie en auditsporen.
CyberSecurity AD is om precies deze reden zo gebouwd als het is. We hebben niet gekozen voor een generieke chatbot die antwoorden geeft op basis van wat statistisch plausibel is. We hebben gekozen voor een omgeving waarbij elke claim herleidbaar is, elke verwijzing gevalideerd is en elke stap gedocumenteerd is. Dat is geen luxe — het is de minimum vereiste om AI verantwoord in te zetten in een strafrechtpraktijk.
De drie advocaten die nu een waarschuwing hebben ontvangen hebben dit vermoedelijk niet met kwade bedoelingen gedaan. Ze waren waarschijnlijk onder tijdsdruk, gebruikten een tool die beschikbaar was en gingen ervan uit dat de output betrouwbaar was. Dat is menselijk. Maar de beroepsnorm vereist meer dan menselijk. Ze vereist navolgbaar en verifieerbaar handelen.
Ik hoop oprecht dat deze gevallen leiden tot een breed gesprek in de advocatuur over de vraag wat verantwoord AI-gebruik technisch inhoudt. Niet als rem op innovatie, maar als basis voor verantwoord gebruik van een krachtige technologie die de strafrechtadvocatuur echt kan helpen.