Achtergrond
De Nederlandse Orde van Advocaten (NOvA) heeft aanbevelingen gepubliceerd voor verantwoord AI-gebruik binnen de advocatuur. De aanbevelingen zijn geen formele regelgeving, maar worden breed gezien als de standaard waaraan advocaten zich moeten houden wanneer zij AI inzetten bij hun werk.
De drie centrale kernwaarden zijn:
- Vertrouwelijkheid — cliëntgegevens en dossierinhoud mogen nimmer worden blootgesteld aan ongeautoriseerde derden
- Onafhankelijkheid — de advocaat blijft zelf verantwoordelijk voor de juridische duiding; AI-output is ondersteunend, niet beslissend
- Zorgvuldigheid — AI-gebruik moet navolgbaar zijn en de advocaat moet de werking en beperkingen van het gebruikte systeem begrijpen
Wat betekent dit in de praktijk?
Vertrouwelijkheid en cloudverwerking
Het meest directe spanningspunt is de inzet van generatieve AI-tools zoals commerciële LLM-platformen. Wanneer een advocaat strafdossierinhoud invoert in een generatief AI-model dat via een externe API werkt, kan die data worden gebruikt voor modeltraining, opgeslagen worden in logbestanden, of worden ingezien door medewerkers van de platformaanbieder.
De NOvA stelt expliciet dat advocaten moeten controleren wat er met cliëntdata gebeurt voordat zij een AI-tool inzetten. Voor veel gangbare tools is die transparantie beperkt of afwezig.
Onafhankelijkheid en algoritmische sturing
Een tweede risico is algoritmische sturing. AI-modellen geven antwoorden op basis van statistische patronen. Wanneer een advocaat op basis van AI-output een verdedigingslijn bepaalt zonder kritische toetsing, kan dat de onafhankelijkheid van de juridische afweging ondermijnen.
De aanbeveling is: gebruik AI als analyse-instrument, niet als beslissingsinstantie.
Zorgvuldigheid en reproduceerbaarheid
Zorgvuldigheid vereist dat een advocaat kan verantwoorden hoe een analyse tot stand is gekomen. Bij AI-tools die geen auditspoor bieden, is dit niet mogelijk. In een strafzaak kan dit problemen opleveren wanneer tegenpartij of rechter vraagt naar de methode achter een technisch argument.
Hoe sluit CSAD hier op aan?
CyberSecurity AD is technisch ingericht op alle drie de kernwaarden:
- Vertrouwelijkheid: de verwerkingsomgeving is structureel geïsoleerd. Dossierdata verlaat de afgeschermde omgeving niet.
- Onafhankelijkheid: CSAD biedt analyse-output, geen conclusies. De juridische duiding blijft expliciet bij de advocaat.
- Zorgvuldigheid: iedere analysestap is gedocumenteerd, herleidbaar en forensisch reproduceerbaar.
Dit maakt CSAD niet alleen technisch veilig, maar ook juridisch verdedigbaar als instrument.
Conclusie
De NOvA-aanbevelingen zijn geen bureaucratisch obstakel — ze zijn een concrete beschrijving van wat verantwoord AI-gebruik in de rechtspraktijk vereist. Bij de keuze voor AI-tooling in de strafrechtadvocatuur is het zinvol om de technische inrichting van een tool expliciet te toetsen aan deze drie kernwaarden.