AI-systemen Penetratietesten: Hoe Test je de Beveiliging van een AI-systeem?
AI-systemen introduceren aanvalsoppervlakken die een standaard penetratietest niet dekt. Deze gids legt uit hoe je de beveiliging van een AI-systeem test, wat de EU AI Act vereist en hoe AI-pentesten verschilt van conventionele applicatie beveiligingstesting.
TL;DR
AI-systemen introduceren aanvalsoppervlakken die geen enkele standaard penetratietest dekt. Prompt injection, modelmanipulatie, indirecte data-extractie en gecompromitteerde retrievalpijplijnen zijn echte aanvalsvectoren die organisaties zonder testing in productie brengen. De EU AI Act stelt een deadline van 2 augustus 2026 voor hoog-risico AI-systemen om naleving van cyberveiligheid aan te tonen. Deze gids legt uit wat AI-penetratietesten inhoudt, hoe het verschilt van conventionele applicatie beveiligingstesting en wat uw organisatie moet beoordelen voor het inzetten van AI in een gereguleerde of gevoelige context.
Waarom AI-systemen hun eigen beveiligingstesting nodig hebben
Een webapplicatie heeft een gedefinieerd aanvalsoppervlak: endpoints, authenticatiestromen, sessiebeheer, invoerverwerking en serverconfiguratie. Een penetratietester weet wat hij moet zoeken en heeft gevestigde methodologieën om het te vinden.
Een AI-systeem heeft dat alles en meer. Het model zelf is een aanvalsoppervlak. De manier waarop het instructies verwerkt is een aanvalsoppervlak. De externe gegevens die het ophaalt zijn een aanvalsoppervlak. De tools die het kan aanroepen zijn een aanvalsoppervlak. Geen van deze wordt gedekt door standaard penetratietestmethodologie.
Organisaties die een standaard webapplicatiepentest uitvoeren op een AI-aangedreven applicatie en dit als getest beschouwen, creëren een vals gevoel van veiligheid. De gevaarlijkste aanvalsvectoren tegen die applicatie zijn precies degene die de standaardtest niet heeft gezocht.
Het aanvalsoppervlak van een AI-systeem
Het model en zijn instructies
De systeemprompt is de instructieset van de ontwikkelaar. Het vertelt het model wat het is, wat het kan doen en wat het niet mag doen. Prompt injection-aanvallen proberen deze instructies te overschrijven. Een tester onderzoekt of het model ertoe gebracht kan worden de systeemprompt te onthullen, zijn beperkingen te negeren, een ander systeem te imiteren, of zich te gedragen op manieren die de ontwikkelaar niet bedoeld heeft.
Retrieval-augmented generation pijplijnen
Veel AI-systemen halen externe inhoud op om hun antwoorden te onderbouwen: documenten, kennisbanken, databaserecords, e-mails, webpagina's. Deze retrievalpijplijn is een primaire vector voor indirecte prompt injection. Een aanvaller die kan beïnvloeden wat het systeem ophaalt, kan instructies plaatsen die het model zal uitvoeren wanneer het die inhoud verwerkt.
Tool- en API-integraties
AI-agents zijn steeds meer verbonden met tools: e-mail, agenda, codeuitvoering, databasequery's, externe API's, bestandssystemen. Elke tool die de agent kan aanroepen is een potentiële schade versterker als een injectieaanval slaagt. Testing dekt of toolaanroepen via injectie getriggerd kunnen worden, of het model passende beperkingen toepast voor het aanroepen van tools en of tooluitvoer veilig wordt afgehandeld.
Data-extractie via modeluitvoer
Modellen die zijn verfijnd op propriëtaire gegevens of die toegang hebben tot gevoelige informatie in context, kunnen ertoe gebracht worden die informatie te lekken via zorgvuldig geconstrueerde query's. Testing dekt of het model ertoe gebracht kan worden trainingsdata, contextinhoud of informatie uit sessies van andere gebruikers uit te voeren.
Onderliggende applicatie en infrastructuur
De applicatie die het AI-systeem host heeft zijn eigen aanvalsoppervlak: authenticatie, autorisatie, API-beveiliging, snelheidsbeperking, logging en infrastructuurconfiguratie. Een volledige AI-beveiligingsbeoordeling dekt de modelspecifieke aanvalsvectoren en de conventionele applicatie beveiligingslaag.
Hoe AI-pentesten in de praktijk werkt
Architectuurreview
Voor aanvalstesting begint, brengt de tester de architectuur van het AI-systeem in kaart: welke modellen er betrokken zijn, hoe de systeemprompt gestructureerd en opgeslagen is, welke gegevensbronnen het systeem ophaalt, welke tools het kan aanroepen, hoe authenticatie en autorisatie zijn geïmplementeerd en welke logging en monitoring aanwezig is.
Prompt injection testen
Directe injectietesting onderzoekt het model via zijn beoogde interface met instructies die zijn ontworpen om de systeemprompt te overschrijven, configuratiedetails te extraheren, beperkingen te omzeilen of onbedoeld gedrag te triggeren. Indirecte injectietesting introduceert kwaadaardige instructies via externe gegevensbronnen die het systeem ophaalt, documenten die het verwerkt of inhoud die het samenvat.
Beoordeling van veiligheidsguardrails
Systemen met inhoudsbeperkingen, onderwerplimieten of verboden uitvoercategorieën worden getest op omzeilingstechnieken inclusief jailbreaking, contextmanipulatie, roleplay-pretexts en multi-turn manipulatiestrategieën. Het doel is te bepalen of de guardrails standhouden onder adversarische druk of omzeild kunnen worden door een gemotiveerde aanvaller.
Tool- en integratie testing
Waar het AI-systeem toegang heeft tot tools, probeert de tester toolaanroepen te triggeren via injectie, test of toolparameters gemanipuleerd kunnen worden en verifieert dat het systeem passende bevestigingsstappen toepast voor acties met grote impact. Dit is bijzonder kritisch voor systemen die communicatie kunnen verzenden, gegevens kunnen wijzigen of externe API-aanroepen kunnen doen.
AI-pentesten en de EU AI Act
De EU AI Act vereist dat hoog-risico AI-systemen gedurende hun volledige levenscyclus passende niveaus van robuustheid, nauwkeurigheid en cyberveiligheid bereiken. Organisaties die AI-systemen inzetten die als hoog-risico worden geclassificeerd onder Bijlage III, moeten deze eigenschappen aantonen voor het op de markt brengen of in gebruik nemen van hun systeem. De deadline voor deze vereisten is 2 augustus 2026.
Een standaard penetratietestrapport voldoet niet aan deze vereiste. Een gestructureerde AI-beveiligingsbeoordeling die expliciet adversarische invoer, prompt injection, modelmanipulatie en integratiebeveiliging dekt, biedt de bewijsbasis die naleving vereist.
FAQ
Wat is AI-penetratietesten?
AI-penetratietesten is een gestructureerde beveiligingsbeoordeling van een AI-systeem, inclusief het model, de integraties, API's en datapijplijnen. Het test aanvalsoppervlakken die niet bestaan in conventionele software, zoals prompt injection, modelmanipulatie, data-extractie via modeluitvoer en de beveiliging van retrieval-augmented generation pijplijnen. Een standaard applicatiepenetratietest dekt deze aanvalsoppervlakken niet.
Hoe verschilt AI-pentesten van een standaard applicatiepentest?
Een standaard applicatiepentest richt zich op codekwetsbaarheden, authenticatiefouten, injectieaanvallen in gestructureerde data en configuratiezwakheden. Een AI-pentest voegt een laag modelspecifieke aanvalstechnieken toe: prompt injection via directe en indirecte kanalen, contextmanipulatie, jailbreaking, modelinversie, lidmaatschapsinferentie en de beveiliging van tools of API's die het model kan aanroepen. De tester moet begrijpen hoe het specifieke model instructies verwerkt en waarmee het verbonden is.
Vereist de EU AI Act penetratietesten van AI-systemen?
De EU AI Act verplicht penetratietesten niet bij naam. Het vereist dat hoog-risico AI-systemen gedurende hun volledige levenscyclus passende niveaus van robuustheid, nauwkeurigheid en cyberveiligheid bereiken. In de praktijk vereist het aantonen van deze eigenschappen gestructureerde testing die adversarische invoer en aanvalsscenario's omvat. Een penetratietestrapport dat AI-specifieke aanvalsdekking documenteert is het meest geloofwaardige bewijs van naleving van cyberveiligheid onder de wet. De deadline voor hoog-risico AI-systeemvereisten is 2 augustus 2026.
Wat is de gevaarlijkste aanval op een AI-systeem in productie?
Indirecte prompt injection is consistent de gevaarlijkste aanval op AI-systemen in productie. De aanvaller hoeft niet direct met het systeem te communiceren. In plaats daarvan plaatst de aanvaller kwaadaardige instructies in inhoud die het AI-systeem ophaalt, zoals documenten, e-mails of webpagina's. Wanneer het systeem deze inhoud verwerkt, voert het de instructies van de aanvaller uit. AI-agents met toegang tot tools zijn bijzonder kwetsbaar omdat de geïnjecteerde instructie echte acties kan triggeren zoals het verzenden van e-mails, het exfiltreren van gegevens of het doen van API-aanroepen.
Wat dekt een AI-beveiligingsbeoordeling doorgaans?
Een gestructureerde AI-beveiligingsbeoordeling dekt directe en indirecte prompt injection, extractie van systeemprompts, jailbreaking en omzeiling van veiligheidsguardrails, contextmanipulatie, RAG-pijplijnbeveiliging inclusief documentvergiftiging, model-API-beveiliging, tool- en integratiemisbruik, data-exfiltratie via modeluitvoer en de onderliggende applicatie- en infrastructuurbeveiliging. De scope is afhankelijk van de architectuur van het specifieke systeem dat wordt getest.
Welke organisaties moeten hun AI-systemen testen?
Elke organisatie die AI-systemen inzet op een manier die gebruikers, medewerkers, klanten of gereguleerde processen beïnvloedt, moet die systemen testen. Onder de EU AI Act moeten organisaties die hoog-risico AI-systemen inzetten zoals gedefinieerd in Bijlage III voldoen aan cyberveiligheidsvereisten voor de deadline van 2 augustus 2026. Buiten regelgevende verplichtingen vertegenwoordigt elk AI-systeem dat acties kan ondernemen, gevoelige gegevens kan verwerken of beslissingen kan nemen die mensen beïnvloeden een beveiligingsrisico dat voor inzet beoordeeld moet worden.
Gerelateerde diensten en bronnen
Sectricity voert penetratietesten van AI-systemen uit die prompt injection, RAG-pijplijnbeveiliging, toolmisbruik en modelmanipulatie dekken in LLM-gebaseerde en agentische implementaties. Voor een diepere blik op specifieke aanvalsvectoren, zie onze gidsen over prompt injection en MCP-beveiliging. Voor de regelgevende context, zie onze EU AI Act gids. Weet u niet waar u moet beginnen? Start met een gratis security scan.