UNICEF waarschuwt: zo worden kinderfoto's misbruikt door AI

maandag, 9 februari 2026 (17:20) - Kek Mama

In dit artikel:

Een nieuw rapport van UNICEF, ECPAT en INTERPOL toont dat foto’s van kinderen steeds vaker worden misbruikt om seksuele deepfakes te maken. Wereldwijd gaven minstens 1,2 miljoen kinderen aan dat hun beelden het afgelopen jaar hiervoor werden gebruikt; in sommige regio’s is dat zelfs één op de 25 kinderen — gemiddeld dus ongeveer één slachtoffer per klas. Veel voorkomende methode is “nudification”: AI verwijdert of verandert digitaal kleding op gewone foto’s, waardoor zeer realistische valse naaktbeelden ontstaan.

De organisaties benadrukken dat zulke “neppe” beelden ernstige, reële schade veroorzaken. Zodra het gezicht of de identiteit van een kind wordt benut, is het kind volgens UNICEF slachtoffer van seksueel misbruik. Naast persoonlijke en psychologische gevolgen leidt dit materiaal ook tot normalisering van seksuele uitbuiting en vervuiling van opsporingsdatabases, wat het vinden van kinderen in acuut gevaar bemoeilijkt. In meerdere landen zegt tot twee derde van de ondervraagde minderjarigen bang te zijn dat hun foto’s zo misbruikt worden.

Het rapport wijst ook op oorzaken: veel AI-tools worden publiek beschikbaar gemaakt zonder stevige technische of juridische waarborgen. UNICEF pleit daarom voor drie maatregelen: expliciete strafbaarstelling van AI-gegenereerd misbruikmateriaal, “preventief design” zodat het maken van dergelijke beelden technisch ontmoedigd of onmogelijk wordt, en strengere detectie en blokkering door sociale platforms.

In Nederland staat aanpak van seksuele deepfakes opgenomen in het coalitieakkoord 2026: wetgeving moderniseren en een centraal meldpunt inrichten. UNICEF Nederland vraagt het kabinet expliciet kinderen als kwetsbare groep juridisch te beschermen.