Kinderporno met AI groeit explosief: politie kan nep en echt niet meer onderscheiden
Criminelen zetten kunstmatige intelligentie steeds vaker in om kinderpornografisch materiaal te maken. Daarbij gebruiken ze onder meer echte foto’s van kinderen die op sociale media zijn geplaatst. AI maakt het makkelijker om bestaande beelden te misbruiken of zelfs nieuw misbruikmateriaal te genereren dat niet of nauwelijks van echt te onderscheiden is.
Volgens cybercrime-deskundige Maria Genova kunnen AI-tools zelfstandig foto’s van kinderen opsporen en downloaden, waarna die beelden digitaal worden aangepast voor seksuele doeleinden. Vooral vakantiekiekjes waarbij kinderen niet volledig gekleed zijn, blijken populair onder daders.
Het aantal meldingen van kinderpornografie is door deze trend sterk gestegen. In 2024 waren er 153 meldingen, een stijging van ruim 86 procent ten opzichte van het jaar ervoor. Dat komt niet alleen door de opkomst van AI, maar ook door het gebruik van versleutelde chatapps waarin het materiaal wordt verspreid.
Danny van Althuis van AP Twins, een organisatie die zich inzet tegen online kindermisbruik, spreekt van een zorgwekkende ontwikkeling. Volgens hem worden AI-modellen zelfs getraind met echt misbruikmateriaal, waardoor elke interactie met zulke systemen indirect bijdraagt aan het probleem.
In februari leidde Europol een internationale operatie waarbij 25 mensen zijn aangehouden voor het verspreiden van AI-gecreëerde kinderporno. De hoofdverdachte, een Deen, had een speciaal platform opgezet voor dit soort beelden. Nederland speelde een actieve rol in de operatie. Hier worden vier mensen verdacht van het kopen van dergelijke beelden. Ze hadden geen strafblad en ook geen kinderen in hun directe omgeving, meldt de politie. Toch zijn er gesprekken met hen gevoerd, omdat het bezit of aanschaffen van AI-kinderporno net zo strafbaar is als echt materiaal.
Het Expertisecentrum Offlimits zag het aantal AI-kindermisbruikbeelden in 2024 oplopen tot 1472. Inmiddels lijkt er sprake van een daling, maar dat biedt weinig geruststelling. De techniek is zó goed geworden dat het bijna niet meer mogelijk is om AI-beelden van echte beelden te onderscheiden. Volgens de politie vergroot dit het risico op misbruik: de beelden kunnen ervoor zorgen dat daders de stap naar echt misbruik sneller zetten, of kinderen manipuleren tot het accepteren van grensoverschrijdend gedrag.
De wet maakt geen onderscheid tussen echt en AI-gegenereerd misbruikmateriaal. Volgens kinderporno-expert Ben van Mierlo maakt het voor de schade niet uit of een beeld echt is of niet. De gebruikte technieken dragen bij aan het normaliseren van misbruik en vergroten het gevaar voor kinderen. Bovendien zijn AI-beelden zelden volledig kunstmatig: ze zijn vaak opgebouwd uit bestaande foto’s, inclusief beelden van daadwerkelijk misbruik.
Ouders en familieleden wordt dringend aangeraden om terughoudend te zijn met het delen van foto’s van kinderen op sociale media. Een onschuldig beeld kan door AI binnen enkele seconden worden omgezet in misbruikmateriaal. Privacy-instellingen bieden slechts beperkte bescherming als kwaadwillenden de beelden eenmaal in handen hebben. De politie benadrukt dat het delen van dergelijke foto's nooit zonder risico is.