Terug naar Pentesten
    AI Security Testing

    Pentest voor AI-systemen

    Een AI-systeem pentest is een gespecialiseerde beveiligingsbeoordeling voor LLM's, chatbots en AI-applicaties die aanvalsoppervlakken beoordeelt die uniek zijn voor AI kwetsbaarheden die traditionele penetratietest frameworks niet dekken (waaronder model manipulatie, extractie van trainingsdata en misbruik van het contextvenster). Verplicht voor hoog-risico AI-systemen onder de EU AI Act (Verordening EU 2024/1689) vanaf augustus 2026.

    Gericht en contextbewust. Pentesten voor AI- en machine-learning systemen zoals LLM's, chatbots en AI-functionaliteit binnen applicaties. We testen prompt injection, data-leakage en de effectiviteit van guardrails om misbruik en ongewenst gedrag vroegtijdig bloot te leggen.

    Wat we testen

    Prompt injection bij LLM’s
    Manipulatie of “poisoning” van modelgedrag
    Omzeilen van output-validatie of filters
    Data uitlezen via AI-interfaces (bedoeld of onbedoeld)
    Jailbreaks en guardrail-bypasses
    AI-gestuurde analyse van attack surface

    Onze aanpak

    Promptanalyse

    We testen of AI-systemen te misleiden zijn via prompts, contextmanipulatie of verborgen instructies. Zo brengen we in kaart hoe gebruikers of aanvallers het model kunnen sturen buiten de bedoelde werking.

    Guardrail testing

    We proberen bestaande veiligheidsregels en beperkingen doelgericht te omzeilen. Dit toont waar guardrails tekortschieten en welke risico’s ontstaan bij misbruik of ongewenst gedrag.

    Dataleakage

    We onderzoeken of gevoelige informatie kan lekken via antwoorden, prompts of gekoppelde systemen. Daarbij testen we zowel directe blootstelling als indirecte datalekken via integraties.

    Veelgestelde vragen

    Wil je snel weten waar je staat?

    Krijg een helder overzicht van je grootste risico’s via onze gratis security scan.