De Europese AI-verordening — de AI Act, Verordening (EU) 2024/1689 — is op 1 augustus 2024 in werking getreden. Maar voor security teams is de echte vraag niet wanneer de wet van kracht werd, maar wanneer de verplichtingen die er voor hén gelden echt afdwingbaar zijn. Dat is een gefaseerd verhaal.

Wat geldt al en wat komt eraan?

Vanaf 2 februari 2025 zijn twee zaken van kracht: het verbod op AI-systemen met een onaanvaardbaar risiconiveau — denk aan sociale credit scoring of biometrische identificatie in openbare ruimte — en de AI-geletterdheidsverplichtingen uit artikel 4. Die tweede verplichting is voor de meeste organisaties relevanter dan ze op het eerste gezicht lijkt.

AI-geletterdheid betekent dat iedereen die AI inzet, beheert of inkoopt voldoende kennis moet hebben van de mogelijkheden, beperkingen en risico’s van die systemen. Dat moet aantoonbaar zijn: training, registratie, periodieke herhaling. Niet als eenmalige e-learningkit die doorheen wordt geklikt, maar als een echte verificeerbare maatregel.

Vanaf 2 augustus 2025 gelden de GPAI-regels voor aanbieders van grote taalmodellen en andere foundation models. Als je als organisatie zulke modellen via een API inkoopt, ben je als deployer verplicht de technische documentatie van de aanbieder op te vragen, te bewaren en te verifiëren dat het gebruik binnen het toegestane toepassingsbereik valt.

De volgende grote stap is 2 augustus 2026, wanneer de volledige vereisten voor hoog-risico AI-systemen ingaan. Dat omvat onder andere risicobeheersystemen, datakwaliteitsvereisten, logging, menselijk toezicht en expliciete cybersecuritycontrols.

Inventarisatie als vertrekpunt

Voordat maatregelen kunnen worden getroffen, moet je weten welke AI-systemen worden ingezet of ingekocht. Dat klinkt vanzelfsprekend, maar in de praktijk is het verrassend onduidelijk. Veel organisaties gebruiken tientallen SaaS-tools waarvan de AI-componenten niet zichtbaar zijn in de dagelijkse werking. Classificeer elk systeem op risicocategorie — onaanvaardbaar, hoog, beperkt, minimaal — en bepaal expliciet of je als aanbieder of deployer optreedt. Dat onderscheid heeft directe gevolgen voor welke verplichtingen op jou van toepassing zijn.

Hoog-risico categorieën die voor veel Nederlandse organisaties relevant zijn, omvatten AI in HR-processen, creditbeoordeling, systemen die betrekking hebben op kritieke infrastructuur, AI in het rechtswezen en AI die bijzondere persoonsgegevens verwerkt.

AI-geletterdheid als security control

Artikel 4 van de AI Act is niet vrijblijvend. Het vereist aantoonbaar bewijs dat betrokken medewerkers weten wat ze doen en wat de beperkingen zijn van de systemen die ze gebruiken. Vertaal dit naar een beheersmaatregel die je zou kunnen laten zien aan een toezichthouder: wie gebruikt welk AI-systeem, welke training heeft die medewerker gevolgd, wanneer is dat gedaan en op basis van welke versie van het systeem?

Een veelgemaakte fout is dat organisaties awareness-trainingen organiseren maar de registratie verwaarlozen. Bij een audit is de registratie het bewijs. Sla die op een plek op die opvraagbaar is.

GPAI en hoog-risico: governance en logging

Als je GPAI-modellen inkoopt via een API, heb je als deployer specifieke verplichtingen. Bewaar de technische documentatie zoals verstrekt door de aanbieder. Verifieer dat jouw specifieke gebruik valt binnen het toegestane toepassingsbereik dat de aanbieder heeft gedefinieerd. Houd een gebruiksregistratie bij voor hoog-risico toepassingen, inclusief de versie van het model op het moment van gebruik.

Voor hoog-risico AI-systemen na augustus 2026 is het risicobeheersysteem een continu, iteratief proces. Niet een eenmalig document maar een levend systeem dat wordt bijgehouden, herevalueerd en gedocumenteerd bij elke significante change. Logging moet voldoende zijn om achteraf te beoordelen of het systeem correct functioneerde.

Wat aantonen bij incidenten en audits

De AI Act voorziet in markttoezicht en incidentrapportage. Serieuze incidenten met hoog-risico AI moeten worden gemeld. Wat je moet kunnen aantonen combineert drie typen documentatie: actuele risicobeheerdocumentatie, trainingsregistraties voor AI-geletterdheid, en een versie- en configuratieoverzicht van het AI-systeem op het moment van het incident. Voor deployers geldt bovendien dat aantoonbaar menselijk toezicht op outputs met directe impact een vereiste is.

Standpunt

Ik lees en volg de AI Act met oprecht interesse, maar ook met enige ergernis over hoe de wet in de praktijk wordt besproken. Veel van de aandacht gaat naar de verboden en de hoge boetes. Maar de eigenlijk relevante vraag voor de meeste organisaties is: hoe bouw ik nu een AI-omgeving die over twee jaar nog steeds voldoet?

Wat mij aanspreekt is de nadruk op aantoonbaarheid. AI-geletterdheid moet je bewijzen. Logging moet voldoende zijn om incidenten te reconstrueren. Menselijk toezicht moet effectief zijn, niet symbolisch. Dat zijn goede normen, ook los van wetgeving.

Voor CyberSecurity AD betekent dit dat we onze architectuur al hebben ingericht op wat de AI Act straks zal vereisen. Auditsporen zijn integraal, niet optioneel. Modelversies worden gedocumenteerd. De advocaat behoudt altijd het menselijke toezicht op elke analyse. Dat is niet primair omdat de wet het vereist — het is omdat het de enige verantwoorde manier is om AI in te zetten in een juridische context.

Wat ik wel lastig vind is de gefaseerde inwerkingtreding. Veel organisaties wachten op de definitieve deadlines voordat ze beginnen. Maar de governance-structuren die de AI Act vereist, zijn niet in een week neergezet. Wie in het eerste kwartaal van 2026 begint, loopt achter. Nu beginnen met de inventarisatie en het in kaart brengen van de AI-systemen in de stack is de enige manier om in 2026 niet onder tijdsdruk te werken.

Datzelfde advies geldt voor advocatenkantoren die AI willen inzetten voor dossieranalyse. Het landschap van regulering wordt strakker, niet losser. Een infrastructuur die nu al aan de hoogste normen voldoet, zal geen herwerk nodig hebben. CyberSecurity AD is precies met die gedachte gebouwd.