3 liens privés
Un groupe de chercheurs a mis au point un système d'IA capable de protéger les utilisateurs contre la reconnaissance faciale indésirable par des acteurs malveillants. Baptisé Chameleon, le modèle d'IA utilise une technologie spéciale de masquage pour générer un masque qui dissimule les visages dans les images sans affecter la qualité visuelle de l'image protégée. En outre, les chercheurs affirment que le modèle est optimisé en matière de ressources, ce qui le rend utilisable même avec une puissance de traitement limitée. Les chercheurs ont également fait part de leur intention de publier le code du modèle d'IA Chameleon prochainement.
La création de Nightshade est révélatrice de l’inquiétude de nombre d’artistes et de créateurs de contenu face à la montée en puissance des IA génératives qui s’entraînent librement sur leurs œuvres. D’autant plus que, comme l’expliquent les chercheurs, « peu d’outils peuvent empêcher que leur contenu soit introduit dans un modèle d’IA générative contre leur volonté. Les listes d’exclusion ont été ignorées par les entraîneurs d’IA dans le passé et peuvent être facilement ignorées sans aucune conséquence ».
C’est pourquoi ils souhaitent mettre fin à cette « asymétrie de pouvoir » en incitant les fournisseurs d’IA générative à n’exploiter que les contenus non protégés par des droits d’auteur sous peine de voir leurs modèles d’apprentissage empoisonnés par Nightshade.