Hoe veilig is AI eigenlijk?
Stel je voor: je opent je agenda en vraagt je AI-assistent om je afspraken voor te lezen. Klinkt onschuldig, toch? Maar wat als er achter die simpele afspraak een geheime opdracht verborgen zit die je telefoon kan besturen, je gegevens uitleest of zelfs je keuzes beïnvloedt? Begin dit jaar ontdekten onderzoekers een opvallend simpel lek in Android’s AI-assistent. In agenda-uitnodigingen stond een verborgen instructie voor de AI. Zodra de assistent de afspraak voorlas, las hij niet alleen de tekst uit de agenda, maar voerde ook de geheime opdracht uit.
Dit soort aanvallen staan bekend als prompt injections, het zijn slimme trucjes waarmee hackers AI-systemen om de tuin leiden. De hacker plaatst een verborgen instructie in een tekst die door AI verwerkt wordt. Het lek is inmiddels gedicht. Hierdoor is het nu een voorbeeld dat laat zien hoe kwetsbaar AI-toepassingen zijn voor zo’n prompt injection attack.

Waarom AI en security extra gevoelig liggen
AI verwerkt grote hoeveelheden data. Vaak gaat het om gevoelige of vertrouwelijke informatie: medische dossiers, juridische documenten of interne bedrijfsgegevens.
Het gevaar? AI klinkt overtuigend, waardoor gebruikers de output vaak direct geloven. Een chatbot klinkt overtuigend, een tekstgenerator schrijft vlot, een assistent praat zelfverzekerd. Maar wat als die output fout, misleidend of zelfs kwaadaardig is?
AI is nog relatief nieuw. Standaarden en best practices zijn nog in ontwikkeling, hierdoor ontbreekt een duidelijke “handleiding” voor veilige toepassingen. Daardoor sluipen kwetsbaarheden van organisaties ongemerkt systemen binnen en wordt AI verkeerd gebruikt.
Door onderzoek en ervaringen in de praktijk herkennen we vijf risico’s die steeds terugkomen:
-
Dataverlies en datalekken
-
Foutieve antwoorden en bias
-
Misbruik door gebruikers
-
Gebrek aan transparantie en ethiek
-
Onvoldoende kennis en bewustzijn
Risico 1: Dataverlies en datalekken
AI verwerkt veel data, ook gevoelige informatie. Denk aan interne documenten, klantgegevens of complete dossiers. Zodra die data naar een extern AI-model gaat, verlies je een deel van de controle. Waar wordt het opgeslagen? Wie kan erbij? En wordt het misschien gebruikt om het model verder te trainen?
Het risico ontstaat vaak ongemerkt. Een medewerker plakt bijvoorbeeld een tekst in een gratis AI-tool om een mail sneller te schrijven. Of een ontwikkelteam integreert een API zonder goed te kijken waar de data terechtkomt. Deze kleine acties leiden onbedoeld tot mogelijke, grote issues.

Risico 2: Hallucinaties en bias
AI klinkt vaak slim en overtuigend, dit betekent niet dat de uitkomst altijd klopt. Modellen kunnen informatie verzinnen of verkeerde feiten geven. We noemen dit hallucineren. AI kan een wet citeren die niet bestaat, of een chatbot kan advies geven dat nergens op gebaseerd is.
Daarnaast leert AI van bestaande data. Bevat die data vooroordelen? Dan neem het model dit over. Dat noemen we bias. Een bekend voorbeeld is een sollicitatietool die mannen vaker aanbeveelt dan vrouwen omdat de trainingsdata vooral uit mannelijke profielen bestond. Het risico is helder: verkeerde beslissingen, klachten of zelfs juridische claims. Een organisatie die AI inzet zonder checks, neemt een groot risico.

Risico 3: Misbruik door gebruikers
AI kan bewust op het verkeerde spoor worden gezet. Dat noemen we prompt injection. Iemand verstopt een opdracht in de input en AI voert die klakkeloos uit. Het voorbeeld van de Android-agenda-hack in de inleiding laat zien hoe eenvoudig dat gaat.
Een andere vorm is jailbreaking: een gebruiker probeert ingebouwde veiligheidsfilters te omzeilen, zodat AI dingen zegt of doet die normaal geblokkeerd worden. Denk aan het genereren van schadelijke codes of het genereren van gevoelige informatie. Voor een gebruiker lijkt het alsof alles normaal verloopt, in werkelijkheid kan de aanvaller toegang krijgen tot data en systemen.
Risico 4: Ethiek en transparantie
Naast technische risico’s is er ook de vraag: hoe eerlijk en uitlegbaar is AI? Veel modellen zijn een black box. Ze geven output, zonder de waaromvraag uit te leggen.
Dat roept vragen op. Waarom kreeg iemand een afwijzing van een AI-systeem? Waarom kreeg de ene klant een ander advies dan de andere? Zonder uitleg neemt het vertrouwen af.
Hier komen we uit op ethiek. Het kan subtiel gedrag sturen, bijvoorbeeld door suggesties te doen of de volgorde van informatie te veranderen. De inzet van AI is niet meer neutraal als dit in het voordeel van de leverancier is of bepaalde groepen onbewust worden benadeeld. Er bestaat een risico dat gebruiker het systeem wantrouwen of organisaties moeten verantwoording afleggen. Transparantie en eerlijkheid zijn cruciaal.

Risico 5: Onvoldoende kennis en bewustzijn
Veel risico’s ontstaan niet door technologie, maar door mensen. AI is nieuw en veel medewerkers weten niet precies hoe het werkt of wat de gevaren zijn. Ook ontwikkelaars kunnen onbewust fouten maken. Zonder training in veilige AI-ontwikkeling bouwen ze functies die kwetsbaarheden bevatten of data blootstellen. Organisaties denken dat ze veilig werken, terwijl er in de praktijk gaten vallen door gebrek aan kennis. Bewustwording en scholing is daarom erg belangrijk.
Hoe wij hiermee omgaan
Bij Proud Nerds geloven we dat AI enorme kansen biedt, zolang je het veilig en verantwoord inzet. Daarom hebben we een aanpak ontwikkeld die security en ethiek standaard onderdeel maakt van onze projecten:
-
-
Bewustwording en training
Al onze teams zijn op de hoogte van de risico’s. Ontwikkelaars, testers, projectleiders en consultants krijgen uitleg over onderwerpen als prompt-injection, dataveiligheid en bias.
-
Strikte omgang met data
We sturen nooit zomaar data naar externe AI-diensten. Gebruiken we externe modellen? Dan maken we duidelijke afspraken en verwerkersovereenkomsten. We draaien AI-modellen waar mogelijk zelf, binnen een afgeschermde infrastructuur in Europa.
-
Security by design
Veiligheid komt aan het begin van het proces al aan bod. In de ontwerpfase bekijken we al risico’s en nemen we maatregelen. Denk aan het beperken van invoer, het filteren van output en het monitoren van gebruik.
-
Actief monitoren van nieuwe risico’s
De wereld van AI verandert snel: nieuwe kwetsbaarheden komen bijna wekelijks aan het licht. Wij volgen deze ontwikkelingen actief en passen onze aanpak aan zodra dat nodig is. Zo blijven onze oplossingen up-to-date en veilig.
-
Transparantie en beleid
We zijn transparant naar onze klanten. We leggen uit hoe we AI inzetten, welke keuzes we maken en hoe we de risico’s beheersen. Lees ons AI-beleid voor duidelijke richtlijnen.
-
Wij zijn AI als een verantwoordelijkheid en niet als een kans om slimmer en efficiënter te werken. Veiligheid en ethiek nemen we vanaf dag één mee. We zorgen ervoor dat AI-toepassingen waarde toevoegen zonder het veroorzaken van nieuwe problemen.
“AI klinkt vaak slim en overtuigend, dit betekent niet dat de uitkomst altijd klopt. Modellen kunnen informatie verzinnen of verkeerde feiten geven.”
AI advies
Benieuwd naar wat wij kunnen betekenen voor de veiligheid van AI binnen jouw organisatie?
Plan vrijblijvend een kennismaking met Michiel Geurts, Business Consultant AI Innovatie.
Contact