3 liens privés
Les images générées par intelligence artificielle (IA), à la frontière entre le réel et le virtuel, brouillent les lignes légales en matière de pédocriminalité. En France l’alerte est lancée par la Fondation pour l’enfance pour qui « beaucoup de ses photos et vidéos montrant des mineurs agressés et maltraités sont si réaliste qu’il est presque impossible de les distinguer d’images de vrais enfants. »
Si la modération des IA comme Chat GPT, DALL-E, Midjourney empêche en principe la création de contenus inappropriés par leurs conditions d’utilisation, les garde-fous techniques restent limités. Les modèles d’IA génératives en sources ouvertes, tels que Stable Diffusion, offrent peu de contrôle sur les requêtes des utilisateurs, laissant libre cours à des usages détournés.