Een nieuwe aanvalsvector
AI-systemen — en met name Large Language Models (LLM's) — brengen kwetsbaarheden mee die fundamenteel anders zijn dan klassieke applicatiebeveiliging. Een LLM die productiedata verwerkt, klantvragen beantwoordt of interne processen aanstuurt, is een aantrekkelijk doelwit voor aanvallers die weten hoe ze modellen kunnen manipuleren. Onze AI security assessments volgen het OWASP LLM Top 10 framework en worden gecombineerd met red team-scenario's gebaseerd op actuele aanvalstechnieken uit de academische en operationele beveiligingspraktijk.Prompt Injection Testing
Prompt injection is de meest kritieke kwetsbaarheid in LLM-systemen. Bij directe injection manipuleert een aanvaller het model via de gebruikersinterface; bij indirecte injection via externe databronnen die het model leest (websites, documenten, databases).Wij evalueren hoe gemakkelijk uw model is te kapen om veiligheidsfilers te omzeilen, interne instructies te onthullen of acties uit te voeren die buiten de bedoelde scope vallen. Een solide AI Governance framework verkleint dit aanvalsoppervlak structureel.
Data Leakage Prevention
LLM's die getraind zijn op of toegang hebben tot gevoelige data kunnen die data onthullen via gerichte prompts — ook al is de data nooit bedoeld als output. Wij testen op:- Training data extraction: Kan het model verbatim trainingsdata reproduceren, inclusief PII of bedrijfsgeheimen?
- Jailbreaking: Kunnen veiligheidsbeperkingen worden omzeild om gevoelige informatie te extraheren?
- System prompt leakage: Is de systeemprompt (instructies aan het model) te achterhalen door een gebruiker?
- RAG-data leakage: Bij Retrieval-Augmented Generation — kan een aanvaller ongeautoriseerde documenten ophalen?
Model Poisoning & Evasion
Bij model poisoning wordt de integriteit van het trainingsproces aangetast — door vergiftigde trainingsdata, backdoors of manipulatie van fine-tuning datasets. Dit kan leiden tot subtiel afwijkend gedrag dat moeilijk te detecteren is. Wij stress-testen uw ML-trainingspipelines en inferentieresultaten op integriteitsproblemen. Voor organisaties die ISO 42001 implementeren, vormt dit assessment een directe bijdrage aan de vereiste technische beheersmaatregelen.
Adversarial Robustness
Wij analyseren hoe uw modellen presteren onder intentionele, kwaadaardige manipulatie. Dit omvat adversarial examples (licht gemanipuleerde inputs die het model misleiden), model evasion (het omzeilen van detectiemodellen) en model extraction (het reconstrueren van uw model via API-queries).Onze AI Red Team aanpak
- Modelinventarisatie: Welke AI-systemen en LLM's zijn in scope? Hoe zijn ze geïntegreerd?
- Dreigingsmodellering: Welke aanvallers, motieven en aanvalsvectoren zijn realistisch voor uw context?
- Red team testing: Gestructureerde, scenario-gebaseerde tests door AI security specialisten
- Rapportage: Bevindingen met ernst, reproduceerbaarheid en concrete mitigatiemaatregelen
- Retesting: Verificatie van fixes na implementatie
