Uw AI-systeem getest voor de deadline
De EU AI Act verplicht u te bewijzen dat uw hoog-risico AI-systemen veilig, robuust en controleerbaar zijn. Sectricity test ze voor uw auditor dat doet. Deadline: 2 augustus 2026.
De deadline is concreet. De boetes ook.
De AI Act vraagt meer dan een checkbox
Het verschil tussen een compliance-document en bewijs dat standhoudt bij een auditor
Wat niet volstaat
Een intern beleidsdocument zonder technische validatie van het AI-systeem zelf
Wat Sectricity levert
Technische security assessment van uw AI-model, API, data pipeline en integraties
Wat niet volstaat
Een generieke AI-risicomatrix zonder bewijs van feitelijke testresultaten
Wat Sectricity levert
Gedocumenteerde testresultaten met exploitatie-bewijs per bevinding, audit-ready
Wat niet volstaat
Vertrouwen op de veiligheidsclaims van uw AI-leverancier zonder onafhankelijke verificatie
Wat Sectricity levert
Onafhankelijke third-party assessment door gecertificeerde ethical hackers
Wat niet volstaat
Een scan-tool die AI-specifieke aanvalspatronen niet kent: prompt injection, data poisoning, model inversion
Wat Sectricity levert
Handmatige tests gericht op AI-specifieke kwetsbaarheden conform OWASP LLM Top 10 en NIST AI RMF
Wat wij testen in uw AI-systeem
Specifiek voor hoog-risico AI conform de EU AI Act vereisten
Prompt injection en jailbreaking
Aanvallen waarbij kwaadaardige inputs het gedrag van het AI-model manipuleren, resulterend in ongewenste outputs of datalekkage.
Data poisoning en model integrity
Verificatie of uw trainingsdata en modeloutputs manipuleerbaar zijn via aanvallen op de data pipeline.
API en integratie security
Beveiligingstest van alle API-endpoints, authenticatiemechanismen en externe integraties van uw AI-toepassing.
Compliance mapping EU AI Act
Bevindingen worden rechtstreeks gekoppeld aan de relevante vereisten van de EU AI Act, klaar voor uw Conformity Assessment.
Model inversion en inferentie-aanvallen
Aanvallen gericht op het reconstrueren van trainingsdata of het extraheren van vertrouwelijke informatie uit modeloutputs.
Audit-ready rapport
Management summary voor de directie, technisch rapport voor uw IT-team en een assessmentverklaring voor uw conformiteitsaudit.
Hoe de EU AI Act security assessment werkt
Van scope-gesprek tot assessmentverklaring
1. Scope en risicoclassificatie
We bepalen samen of uw AI-systeem onder hoog-risico valt en welke EU AI Act artikelen van toepassing zijn.
2. Technische assessment
Handmatige tests op prompt injection, data pipeline integriteit, API-beveiliging en model-specifieke aanvalspatronen.
3. Compliance mapping
Elke bevinding wordt gekoppeld aan de relevante EU AI Act vereisten en voorzien van een remediatie-aanbeveling.
4. Rapportage en debrief
Technisch rapport, management summary en assessmentverklaring. Persoonlijke toelichting inclusief.
5. Retest en certificering
Na remediatie voeren wij een gerichte retest uit en bevestigen we schriftelijk de correctie van bevindingen.
Voor wie is deze assessment?
Hoog-risico AI is breder dan u denkt. De verplichting geldt voor zowel ontwikkelaars als deployers.
Bedrijven die AI inzetten in HR, credit of zorg
Salarismodellen, kredietscoring, triage-tools. Als uw AI beslissingen ondersteunt die mensen beinvloeden, valt u onder hoog-risico.
SaaS en tech bedrijven die AI-features leveren
U verkoopt een product met AI-functionaliteit aan andere organisaties. De EU AI Act legt verplichtingen op bij zowel de ontwikkelaar als de deployer.
CISO en compliance officers voor de deadline
U bent verantwoordelijk voor het aantonen van conformiteit. Wij leveren het technische bewijs dat uw conformiteitsaudit vereist.
Veelgestelde vragen
De deadline nadert. Start nu.
Plan een gratis scope-gesprek van 30 minuten. Wij bepalen samen of uw AI-systeem een assessment nodig heeft en wat dat omvat.