De NOvA-aanbevelingen voor AI-gebruik in de advocatuur zijn helder over de waarden die gelden: vertrouwelijkheid, onafhankelijkheid en zorgvuldigheid. Maar waarden zijn geen architectuur. Dit artikel vertaalt die waarden naar concrete technische maatregelen die je in een AI-werkstroom kunt inbouwen.
Vertrouwelijkheid: isolatie als technische kern
Vertrouwelijkheid is de meest directe vereiste. Cliëntgegevens en dossierinhoud mogen nimmer worden blootgesteld aan ongeautoriseerde derden. In de praktijk betekent dit dat AI-tools die via externe cloudplatformen werken structureel ongeschikt zijn voor het verwerken van strafdossiers — tenzij de aanbieder expliciete en verifieerbare garanties geeft over dataverwerking, iets wat bij de meeste commerciële platformen ontbreekt of beperkt is.
De technische maatregel die vertrouwelijkheid echt borgt is isolatie van de verwerkingsomgeving: AI-verwerking vindt lokaal of in een strikt geïsoleerde omgeving plaats, data verlaat die omgeving niet en er is geen netwerkconnectie naar externe diensten tijdens verwerking. Aanvullend is end-to-end encryptie voor alle opgeslagen en verwerkte dossierdata een harde vereiste, met sleutelbeheer dat volledig bij de advocaat of het kantoor ligt.
Bij het selecteren van een AI-leverancier hoort vendor due diligence. Dat betekent: heeft de aanbieder een verwerkersovereenkomst die voldoet aan de AVG, is er een actueel certificaat voor informatiebeveiliging, en is er een onafhankelijke audit die de beveiligingsclaims ondersteunt?
Onafhankelijkheid: analyse zonder algoritmische sturing
Onafhankelijkheid vereist dat de advocaat zelf de juridische duiding doet en niet werd gestuurd door de output van het AI-systeem. Technisch gezit in die eis verlangen dat AI-output wordt gepresenteerd als analyse-input, niet als conclusie. Elke analyseresultaat moet vergezeld gaan van een expliciete bronvermelding, zodat de advocaat kan beoordelen of de onderliggende informatie inderdaad relevant en correct is.
Dit vereist ook dat het systeem geen antwoord geeft op vragen die buiten het bereik van de beschikbare bronnen vallen. Een goed ingericht juridisch AI-systeem weigert conclusies te trekken die niet herleidbaar zijn naar de beschikbare documentatie. Het markeert onzekerheid. Het signaleert tegenstrijdige informatie. Het maakt de advocaat alerter, niet slapper.
Zorgvuldigheid: het auditspoor als professioneel instrument
Zorgvuldigheid vereist navolgbaarheid. In een technische architectuur betekent dit een volledig auditspoor per analysestap: welke inputdocumenten zijn gebruikt, in welke versie, met welk AI-model, op welk tijdstip, met welke output en welke verificatiestappen zijn gevolgd.
Dat spoor moet niet alleen voor interne doeleinden beschikbaar zijn maar ook voor gebruik als bijlage bij technische bewijsvoering — zodat de advocaat in een procedure kan aantonen hoe een bepaalde analyse tot stand is gekomen. Reproduceerbaarheid is daarin cruciaal: dezelfde input met dezelfde modelversie moet tot dezelfde output leiden, of tot een output die verklaarbaar afwijkt.
Vendor due diligence: drie concrete vragen
Bij elk AI-systeem dat in de strafrechtadvocatuur wordt overwogen, zijn drie vragen essentieel. Eerste: beschikt de leverancier over een verwerkersovereenkomst die voldoet aan de AVG en is er een actueel informatiebeveiligingscertificaat? Tweede: kan de leverancier aantonen dat data niet wordt gebruikt voor modeltraining en dat er geen inzage is door medewerkers van de leverancier? Derde: is er een auditspoor beschikbaar per analysestap, inclusief modelversie en bronverwijzingen?
Als een aanbieder op een van deze drie vragen geen eenduidig antwoord kan geven, is dat een harde reden om verder te kijken.
Standpunt
Technische controls en juridische normen raken elkaar hier op een manier die ik bijzonder interessant vind. De drie vragen die ik hierboven noem voor vendor due diligence zijn niet willekeurig — ze zijn afgeleid van de NOvA-kernwaarden. Vertrouwelijkheid vertaalt naar verwerkersovereenkomsten en isolatie. Onafhankelijkheid vertaalt naar bronbinding en transparantie over onzekerheid. Zorgvuldigheid vertaalt naar auditsporen en reproduceerbaarheid.
Dat CyberSecurity AD op al deze punten positief scoort is geen toeval. We hebben de NOvA-aanbevelingen als ontwerpbasis gebruikt, niet als compliance-eis achteraf. Die volgorde maakt een verschil: als je begint met de vraag “hoe voldoe ik aan de regels,” zit je altijd net te weinig te doen. Als je begint met de vraag “wat is professioneel verantwoord,” neem je de juiste maatregelen en voldoe je automatisch aan de regels.
Ik hoop dat dit artikel advocaten helpt om de technische evaluatie van AI-tools concreter te maken. “Is dit veilig?” is een onvoldoende vraag. “Voldoet dit aan de NOvA-kernwaarden, en hoe kan ik dat technisch verifiëren?” is de goede vraag. Het antwoord op die vraag legt een fundamenteel onderscheid bloot tussen tools die voor de advocatuur bedoeld zijn en tools die er achteraf voor worden aangepast.