Onschuldig delen? Zo worden kinderfoto's misbruikt door AI

maandag, 9 februari 2026 (15:03) - Kek Mama

In dit artikel:

Een nieuw internationaal rapport van UNICEF, ECPAT en INTERPOL toont dat foto’s van kinderen steeds vaker worden misbruikt door AI voor seksueel getinte deepfakes. Wereldwijd melden minimaal 1,2 miljoen kinderen dat hun beeld het afgelopen jaar voor dit doel is gebruikt; in de onderzochte elf landen loopt het in sommige regio’s op tot één slachtoffer per 25 kinderen — grofweg één kind per klas. UNICEF waarschuwt helder: “Deepfake-kindermisbruik is real life kindermisbruik.”

Een veelgebruikte methode is nudification: met AI wordt kleding digitaal verwijderd of aangepast, waardoor zeer realistische maar volledig valse naaktbeelden ontstaan. Ook wanneer beelden niet direct herleidbaar zijn tot een echt kind, heeft het misbruik concrete gevolgen: het normaliseert seksuele uitbuiting, vergroot de angst onder jongeren (in sommige landen zegt tot twee derde van de minderjarigen bang te zijn voor misbruik van hun foto’s) en vervuilt opsporingsdatabases, wat hulpverlening bemoeilijkt.

UNICEF stelt drie maatregelen voor: wetgeving die expliciet ook AI-gegenereerd seksueel misbruik strafbaar stelt; preventief ontwerp door AI-bedrijven zodat het maken van dergelijke beelden technisch wordt bemoeilijkt; en strengere detectie en blokkering door sociale platforms in plaats van louter achteraf verwijderen. In Nederland is aanpak van seksuele deepfakes opgenomen in het coalitieakkoord 2026: modernere wetgeving en een centraal meldpunt moeten slachtoffers laagdrempelig ondersteunen. UNICEF Nederland dringt erop aan kinderen daarbij expliciet als kwetsbare groep te behandelen.