De Nederlandse Orde van Advocaten heeft aanbevelingen uitgebracht voor verantwoord AI-gebruik in de advocatuur. Die aanbevelingen zijn geen formele regelgeving, maar worden in de praktijk breed gezien als de standaard waaraan advocaten zich moeten houden wanneer zij AI inzetten bij hun werk. Drie kernwaarden staan centraal: vertrouwelijkheid, onafhankelijkheid en zorgvuldigheid.

Vertrouwelijkheid in de praktijk

Het meest directe spanningspunt is het gebruik van generatieve AI-tools die via externe API’s werken. Wanneer een advocaat strafdossierinhoud invoert in een groot taalmodel dat door een extern bedrijf wordt aangeboden, kan die data worden gebruikt voor modeltraining, worden opgeslagen in logbestanden of worden ingezien door medewerkers van de platformaanbieder.

De NOvA stelt expliciet dat advocaten moeten controleren wat er met cliëntdata gebeurt voordat zij een AI-tool inzetten. Voor veel gangbare tools is die transparantie beperkt of afwezig. De vertrouwelijkheidsplicht van de advocatuur is echter niet een best-effort verplichting — het is een absolute norm die geen ruimte laat voor onzekerheid over waar data naartoe gaat.

Onafhankelijkheid en algoritmische sturing

Een tweede risico is algoritmische sturing. AI-modellen geven antwoorden op basis van statistische patronen in hun trainingsdata. Dat betekent dat de output van een model gekleurd kan zijn door wat er in die data zit — impliciete aannames, culturele uitgangspunten, of simpelweg de meest voorkomende redeneringen in de juridische teksten waarop het model is getraind.

Als een advocaat een verdedigingslijn bepaalt op basis van AI-output zonder kritische toetsing, kan dat de onafhankelijkheid van de juridische afweging ondermijnen. De aanbeveling is helder: gebruik AI als analyse-instrument, niet als beslissingsinstantie. De advocaat beslist. AI ondersteunt.

Zorgvuldigheid en reproduceerbaarheid

Zorgvuldigheid vereist dat een advocaat achteraf kan verantwoorden hoe een analyse tot stand is gekomen. Bij AI-tools die geen auditspoor bieden is dat niet mogelijk. In een strafzaak kan dit problemen opleveren wanneer de tegenpartij of de rechter vraagt naar de methode achter een technisch argument. Als het antwoord “ik heb het aan een chatbot gevraagd” is, staat de advocaat zwak.

Hoe CSAD op deze kernwaarden aansluit

CyberSecurity AD is technisch ingericht op alle drie de NOvA-kernwaarden. Vertrouwelijkheid is structureel geborgd: de verwerkingsomgeving is geïsoleerd en dossierdata verlaat die omgeving niet. Onafhankelijkheid is geborgd doordat CSAD analyse-output biedt, geen conclusies trekt en de juridische duiding altijd bij de advocaat laat. Zorgvuldigheid is geborgd doordat iedere analysestap gedocumenteerd, herleidbaar en forensisch reproduceerbaar is.

Dat maakt CSAD niet alleen technisch veilig, maar ook juridisch verdedigbaar als instrument voor de strafrechtpraktijk.

Standpunt

De NOvA-aanbevelingen hebben bij mij een bijzonder sentiment opgeroepen toen ik ze voor het eerst las. Niet vanwege verrassing — de waarden die ze beschrijven zijn fundamenteel voor iedere serieuze juridische praktijk — maar vanwege de nauwkeurigheid waarmee ze precies die spanningspunten benoemen die wij in de architectuur van CSAD centraal hebben gesteld.

Vertrouwelijkheid is voor mij geen compliance-checkbox. Het is de kern van de relatie tussen advocaat en cliënt. Een cliënt die zijn advocaat een strafdossier toevertrouwt, vertrouwt erop dat die informatie nergens anders terechtkomt. Die norm is absoluut. En toch ziet de markt vol met AI-tools die worden aangeboden als “veilig genoeg” of “GDPR-compliant” terwijl de data wel degelijk naar externe servers gaat. Dat is onvoldoende.

Onafhankelijkheid is mij ook als waarde erg dierbaar. De advocatuur is een van de weinige beroepen waarbij de wet de onafhankelijkheid van de professional expliciet beschermt. Die onafhankelijkheid is de garantie voor de cliënt dat de verdediging echt vanuit zijn belang wordt gevoerd. Algoritmische sturing — ook subtiele, onbewuste sturing — is daarmee principieel onverenigbaar.

Wat ik mooi vind aan de NOvA-aanpak is dat de organisatie de technische realiteit serieus neemt. De aanbevelingen zijn niet geformuleerd als “wees voorzichtig met AI” maar als concrete waarden die technisch toetsbaar zijn. Dat is het gesprek dat gevoerd moet worden: niet of AI mag, maar hoe de technische inrichting de professionele norm verankert.

CSAD is gebouwd vanuit die overtuiging. We hopen dat we met dit platform kunnen aantonen dat je de drie NOvA-kernwaarden technisch volledig kunt borgen — en dat je daarmee de vruchten van AI-analyse plukt zonder de professionele risico’s die bij onzorgvuldig gebruik horen.