AI, NIS2 en de EU AI Act: Wat Security- en Complianceteams Moeten Doen voor Augustus 2026
NIS2, de EU AI Act en DORA convergeren nu op organisaties die AI inzetten. Deze gids brengt in kaart waar de drie kaders overlappen, wat security- en complianceteams moeten opleveren voor augustus 2026 en hoe één geïntegreerde beoordeling alle drie kan omvatten.
AI, NIS2 en de EU AI Act: Wat Security- en Complianceteams Moeten Doen voor Augustus 2026
Drie EU-verordeningen komen nu samen op dezelfde AI-systemen. Wie ze apart aanpakt, doet het werk dubbel.
Drie grote EU-verordeningen komen samen op organisaties die AI inzetten: NIS2 verplicht cyberbeveiligingsrisicobeheer voor essentiële en belangrijke entiteiten, de EU AI Act stelt specifieke cyberbeveiligingsvereisten voor hoog-risico AI-systemen met een cruciale deadline van 2 augustus 2026 en DORA legt sector-specifieke eisen op aan AI die wordt gebruikt in ICT-processen van financiële entiteiten.
De meeste organisaties beheren deze apart, via verschillende teams, met verschillende tijdlijnen. Die aanpak creëert gaten en dubbel werk. Dit artikel brengt in kaart waar de drie kaders overlappen, wat security- en complianceteams moeten doen voor augustus 2026 en hoe één beoordeling bewijs kan opleveren voor alle drie.
TL;DR
NIS2, de EU AI Act en DORA overlappen zwaar voor organisaties die hoog-risico AI inzetten. Waar NIS2 risicobeheer eist, eist de EU AI Act cyberbeveiligingsveerkracht voor hoog-risico AI-systemen (deadline 2 augustus 2026) en DORA ICT-veerkracht voor financiële entiteiten. Het bewijs is hetzelfde: technische beoordeling, kwetsbaarheidsbeheer, incident response. Eén AI-systemen penetratietest die adversarische invoer, prompt injection, modelmanipulatie en RAG-pijplijnbeveiliging dekt, levert documentatie voor alle drie de kaders tegelijk.
Waarom deze drie kaders nu één probleem zijn
Tot voor kort stonden cyberbeveiligingsnaleving en AI-governance in aparte gesprekken. Cyberbeveiligingsteams deden NIS2 en DORA. Juridische en complianceteams deden AI-beleid. De EU AI Act heeft die scheiding beëindigd.
De EU AI Act eist expliciet dat hoog-risico AI-systemen cyberbeveiligingsveerkracht, nauwkeurigheid en robuustheid aantonen. Die eisen worden niet voldaan door een juridische review of een beleidsdocument. Ze vereisen technisch bewijs: architectuurbeoordelingen, adversarische testen, gedocumenteerd kwetsbaarheidsbeheer. Met andere woorden, ze vragen om hetzelfde type bewijs dat NIS2 en DORA al jaren eisen.
Voor elke organisatie die zowel NIS2-scope heeft als AI-systemen inzet, overlappen de bewijsvereisten aanzienlijk. Apart opbouwen is onnodig. Samen opbouwen is sneller, goedkoper en levert sterkere nalevingsdocumentatie op.
Wat de EU AI Act vereist vanuit beveiligingsperspectief
De EU AI Act classificeert AI-systemen op risiconiveau. De cyberbeveiligingsvereisten gelden het strengst voor hoog-risico systemen, gedefinieerd in Bijlage III. Dit omvat AI gebruikt in kritieke infrastructuur, tewerkstelling en personeelsbeheer, toegang tot essentiële diensten, rechtshandhaving en onderwijs. De deadline van 2 augustus 2026 vereist dat alle in-scope systemen naleving aantonen voordat ze op de markt worden gebracht of in gebruik worden genomen.
Cyberbeveiligingsveerkracht onder Artikel 15
Artikel 15 van de EU AI Act vereist dat hoog-risico AI-systemen veerkrachtig zijn tegen pogingen van onbevoegde derden om gebruik of prestaties te wijzigen. Dit dekt adversarische aanvallen, datavergiftiging, modelmanipulatie en prompt injection voor systemen met taalmodellen. Het aantonen van deze veerkracht vereist gestructureerd testen, niet alleen beleidsuitspraken.
Technische documentatie en audit trails
Hoog-risico AI-systemen moeten gedurende hun volledige levenscyclus technische documentatie bijhouden. Dit omvat de data gebruikt voor training en tests, de maatregelen genomen om nauwkeurigheid en robuustheid te waarborgen en de testresultaten. Voor cyberveiligheid specifiek betekent dit dossiers bijhouden van wat is getest, wanneer, wat gevonden werd en wat eraan is gedaan. Een penetratietestrapport is een van de meest verdedigbare vormen van dit bewijs.
Waar NIS2 en de EU AI Act overlappen
Onder NIS2 Artikel 21 moeten essentiële en belangrijke entiteiten risicomaatregelen nemen in een gedefinieerde set beveiligingsdomeinen. Verschillende daarvan mappen direct op EU AI Act-vereisten voor hoog-risico systemen.
Kwetsbaarheidsbeheer. NIS2 vereist gedocumenteerde kwetsbaarheidsafhandeling. De EU AI Act vereist doorlopende monitoring van systeemprestaties en robuustheid, inclusief identificatie en remediatie van zwakheden. Eén kwetsbaarheidsbeheerproces dient beide.
Beveiligingstesten. NIS2 vereist beveiligingstesten als onderdeel van risicobeheer. De EU AI Act vereist technisch bewijs van cyberbeveiligingsveerkracht. Een AI-specifieke penetratietest die zowel conventionele applicatiebeveiliging als AI-specifieke aanvalsvectoren dekt (prompt injection, modelmanipulatie, RAG-pijplijnbeveiliging) levert documentatie die beide kaders tegelijk afdekt.
Incidentafhandeling. NIS2 vereist een getest incident response vermogen met gedefinieerde meldingsverplichtingen. De EU AI Act vereist post-market monitoring voor hoog-risico AI-systemen om incidenten te detecteren en erop te reageren. Beide vereisen hetzelfde operationele vermogen: beveiligingsgebeurtenissen detecteren, inperken en melden.
Supply chain security. NIS2 vereist beoordeling van derde-partij en leveranciersbeveiliging. De EU AI Act vereist documentatie van data, modellen en componenten gebruikt in hoog-risico AI-systemen, inclusief componenten van derden. Als uw AI-systeem afhankelijk is van een externe modelprovider of datapijplijn, vereisen beide kaders dat u die afhankelijkheid beoordeelt en documenteert.
Waar DORA financiële sectorspecifieken toevoegt
Financiële entiteiten onderworpen aan DORA krijgen een derde laag vereisten zodra AI betrokken is in ICT-processen. DORA vereist threat-led penetratietesten voor significante financiële instellingen, gedocumenteerde veerkrachttesten voor kritieke ICT-systemen en een register van alle ICT-afhankelijkheden van derden, inclusief AI-providers.
Voor een bank of verzekeraar die een AI-systeem inzet in kredietwaardering, fraudedetectie of klantinteractie, is DORA van toepassing op de ICT-beveiliging van dat systeem, de EU AI Act op zijn AI-specifieke cyberbeveiligingseigenschappen en mogelijk NIS2 op de organisatie als essentiële of belangrijke entiteit. Alle drie eisen documentatie van dezelfde beveiligingseigenschappen. Het meest efficiënte pad is één geïntegreerde beoordeling die bewijs oplevert voor alle drie.
De deadline van augustus 2026 in de praktijk
De deadline van 2 augustus 2026 betekent dat hoog-risico AI-systemen moeten voldoen voordat ze op de markt worden gebracht of in gebruik worden genomen vanaf die datum. Systemen die al in gebruik zijn, hebben in de meeste gevallen tot 2 augustus 2027 onder overgangsbepalingen, maar hoog-risico systemen die vóór augustus 2026 op de markt zijn gebracht, worden bij hun volgende update of significante wijziging onder de loep genomen.
Praktisch betekent dit dat het venster om een beoordeling uit te voeren, gaten te identificeren, te remediëren en documentatie te produceren nu is. Een beveiligingsbeoordeling van een AI-systeem duurt weken, geen dagen. Remediatie van bevindingen kost extra tijd. Regulatoire documentatie kost tijd om voor te bereiden. Organisaties die tot juni 2026 wachten, halen het niet.
Een praktische nalevingsroadmap
Stap 1: Scope uw AI-systemen. Identificeer welke AI-systemen uw organisatie gebruikt of inzet. Bepaal voor elk of het binnen de hoog-risico categorieën van de EU AI Act onder Bijlage III valt. Wees conservatief: bij echte twijfel, ga uit van in-scope en verifieer.
Stap 2: Breng uw regulatoire verplichtingen in kaart. Bepaal welke kaders van toepassing zijn op uw organisatie en elk AI-systeem. Een NIS2-entiteit die hoog-risico AI inzet onder de EU AI Act heeft overlappende verplichtingen. Documenteer de overlap en identificeer welk bewijs aan meerdere eisen voldoet.
Stap 3: Voer een beveiligingsbeoordeling uit van elk in-scope AI-systeem. Dit moet AI-specifieke aanvalsoppervlakken dekken (adversarische invoer, prompt injection, modelmanipulatie, retrievalpijplijn) én de onderliggende applicatie en infrastructuur. De output is een testrapport dat dient als technische documentatie voor zowel de EU AI Act als NIS2.
Stap 4: Remedieer bevindingen en documenteer. Bevindingen uit de beoordeling voeden uw kwetsbaarheidsbeheerproces. Remediatieacties en resultaten worden onderdeel van de technische documentatie die beide kaders vereisen. Dit creëert een audit trail die doorlopend, in plaats van eenmalig, beveiligingsbeheer aantoont.
Stap 5: Zet doorlopende monitoring op. Zowel NIS2 als de EU AI Act vereisen doorlopend beveiligingsbeheer, geen eenmalige beoordeling. Definieer een terugkerende testcadans, integreer AI-systeemmonitoring in uw incidentdetectievermogen en werk technische documentatie bij bij systeemwijzigingen.
Veelgestelde vragen over AI-naleving
Wat vereist de EU AI Act voor cyberveiligheid?
De EU AI Act vereist dat hoog-risico AI-systemen gedurende hun volledige levenscyclus passende niveaus van cyberbeveiligingsveerkracht, nauwkeurigheid en robuustheid bereiken. Artikel 15 vereist specifiek veerkracht tegen pogingen van derden om gebruik of prestaties van het systeem te wijzigen, inclusief adversarische aanvallen, datavergiftiging en modelmanipulatie. Dit moet worden aangetoond via technische documentatie inclusief testresultaten. De deadline voor hoog-risico AI-systemen is 2 augustus 2026.
Hoe is NIS2 van toepassing op organisaties die AI inzetten?
NIS2 is van toepassing op essentiële en belangrijke entiteiten in een breed scala aan sectoren. Als uw organisatie NIS2-scope heeft en AI-systemen inzet, vereist NIS2 dat u die systemen opneemt in uw risicobeheerframework, kwetsbaarheidsbeheerproces en incident response vermogen. AI-systemen die gevoelige data verwerken, kritieke processen ondersteunen of geïntegreerd zijn met kritieke infrastructuur, vallen bijzonder vaak binnen de scope.
Kan één penetratietest voldoen aan zowel NIS2 als EU AI Act vereisten?
Eén AI-beveiligingsbeoordeling kan bewijs produceren voor beide kaders als deze de volledige scope van beide dekt. Voor NIS2 moet de beoordeling applicatiebeveiliging en infrastructuur van het AI-systeem dekken. Voor de EU AI Act moet deze ook AI-specifieke aanvalsvectoren dekken, inclusief adversarische invoer, prompt injection, modelmanipulatie en retrievalpijplijnbeveiliging. Een beoordeling die alles dekt, levert één rapport dat nalevingsrelevant beveiligingsbewijs voor beide kaders tegelijkertijd documenteert.
Wat is de EU AI Act deadline voor hoog-risico AI-systemen?
De EU AI Act trad in werking op 1 augustus 2024. De vereisten voor hoog-risico AI-systemen onder Bijlage III gelden vanaf 2 augustus 2026. Organisaties die hoog-risico AI-systemen inzetten, moeten vanaf die datum aantonen dat ze aan alle toepasselijke vereisten, inclusief cyberveiligheid, voldoen voordat ze systemen op de markt brengen of in gebruik nemen. Systemen die vóór augustus 2026 al zijn ingezet, worden bij hun volgende significante wijziging onder de loep genomen.
Hoe interageert DORA met de EU AI Act voor financiële organisaties?
Financiële entiteiten onderworpen aan DORA moeten AI-systemen in ICT-processen behandelen als ICT-activa die vallen onder DORA's veerkracht-, test- en derde-partijbeheervereisten. Wanneer die AI-systemen ook binnen de hoog-risico categorieën van de EU AI Act vallen, staat hetzelfde systeem onder zowel de ICT-beveiligingseisen van DORA als de AI-specifieke cyberbeveiligingseisen van de EU AI Act. Eén geïntegreerde beoordeling die zowel ICT-beveiligingstesten als AI-specifieke adversarische testen dekt, levert documentatie op die relevant is voor zowel DORA als de EU AI Act.
Gerelateerde diensten en bronnen
Sectricity levert AI-systemen penetratietesten die AI-specifieke aanvalsvectoren én conventionele applicatiebeveiliging in één engagement dekt, met één rapport dat relevant is voor EU AI Act-, NIS2- en DORA-documentatievereisten. Voor regulatoire achtergrond, zie onze gidsen over de EU AI Act en NIS2 naleving. Voor technische detail over AI-aanvalsoppervlakken, zie onze gidsen over prompt injection en hoe u AI-systeembeveiliging test. Start met een gratis security scan.