3 liens privés
Des contenus générés par IA qui ânonnent des textes qui ne veulent rien dire. Des images stylisées qui nous déconnectent de la réalité. L’internet zombie colonise l’internet, par un remplissage par le vide qui n’a pas d’autre enjeu que de nous désorienter.
Sur la plupart des réseaux sociaux vous avez déjà du tomber sur ces contenus génératifs, pas nécessairement des choses très évoluées, mais des contenus étranges, qui n’ont rien à dire, qui hésitent entre développement personnel creux, blague ratée ou contenu sexy. Des vidéos qui ânonnent des textes qui ne veulent rien dire. Les spécialistes parlent de slop, de contenus de remplissages, de résidus qui peu à peu envahissent les plateformes dans l’espoir de générer des revenus.
Meta a annoncé une augmentation de 8 % du temps passé sur Facebook et de 6 % du temps passé sur Instagram grâce aux contenus génératifs. 15 millions de publicités par mois sur les plateformes Meta utilisent déjà l’IA générative. Et Meta prévoit des outils pour démultiplier les utilisateurs synthétiques.
« L’AI Slop est un signal vide et consommé passivement, un symptôme de « l’ère du bruit », dans lequel il y a tellement de « vérité » provenant de tant de positions que l’évaluation de la réalité semble sans espoir. »
Une intelligence simplement humaine n’a jamais existé : les esprits individuels et collectifs n’ont cessé de se transformer à travers l’évolution des supports artificiels qui permettent de les extérioriser. Pourquoi alors, aujourd’hui, les machines deviennent-elles « spirituelles » ? Pourquoi, au lieu de libérer les humains du travail, semblent-elles transformer leur utilisateurs en ressource ? Au cours de ce voyage dans l’écologie mentale du numérique au temps de l’IA, Anne Alombert montre la naissance d’une technologie intellectuelle d’asservissement des esprits, générant la prolétarisation linguistique et symbolique, homogénéisant le langage et éliminant les singularités. L’espoir se loge dans la collaboration des esprits qu’une telle technologie présuppose.
L’attribution des capacités humaines aux « machines » serait ainsi au service d’un processus d’identification, qui permet à l’homme de s’attribuer en retour la puissance de la machine, de se masquer sa propre vulnérabilité et d’exercer sa domination ou sa supériorité.
Le rapport anthropomorphique, hypnotique et magique à la technique permet aussi de masquer les infrastructures matérielles et les ressources naturelles nécessaires au fonctionnement de ce qui s’apparente plus à un système hyperindustriel réticulaire qu’à une « machine » à proprement parler : plutôt que des « machines intelligentes » ou des « machines spirituelles », les automates computationnels que nous mobilisons quotidiennement fonctionnent en réseau, à travers la réticulation planétaire de terminaux, de câbles, de centres de données et de satellites, dont le fonctionnement a de lourdes conséquences du point de vue écologique.
Est-ce grave ?
Oui : Cela alimente la désinformation et permet aux "Iron Men" de produire à la chaîne sans vérification. Fake news, perte de crédibilité et surproduction de contenu erroné.
Non : Cela nous oblige à rester vigilant et à aiguiser notre esprit critique. Copier-coller sans réfléchir n’a jamais été une bonne idée, IA ou pas.
Suite et fin de la série consacrée à la conférence de Mélanie Mitchell sur l’avenir de l’intelligence artificielle.
Alors que l’intelligence artificielle accélère la propagation de fausses images, les cours d’histoire se doivent d’intégrer une formation à l’histoire numérique. Explications avec le projet VIRAPIC.
En constituant une base de référencement des photographies virales, détournées, décontextualisées ou inventées autour d’évènement historiques, le projet VIRAPIC permettra d’accéder rapidement à un contenu historique solide et critique sur les images que les élèves, enseignants ou éditeurs souhaitent publier en ligne ou utiliser en cours.
Vera se comporte comme un chatbot (bot conversationnel) classique, similaire à celui de ChatGPT, mais dont la spécificité est de s'abreuver, en temps réel, aux contenus de plus de 300 médias fiables pour générer une réponse documentée, sourcée et impartiale. Elle s'appuie sur les ressources de plus de 100 équipes et collectifs reconnus, signataires du code de l’International Fact-Checking Network (IFCN) ou membres de l’European Fact-Checking Standards Network (EFCSN), parmi lesquelles AFP Factuel, Snopes, Correctiv, Les Surligneurs ou encore Conspiracy Watch.
La démocratisation de l’intelligence artificielle, via Midjourney, a facilité la diffusion d’une multitude de « photos d’époque » fictives. Des pseudo-images parfois difficiles à identifier et qui ont déjà servi à justifier des discours politiques.
L'ONG AI Forensics révèle que les partis d'extrême droite ont utilisé l'IA pour propager leurs messages anti-immigration et anti-Europe pendant la campagne des européennes et des législatives.
Ces chercheurs indépendants ont analysé les contenus publiés en ligne par 38 partis et coalitions en France : textes, images, vidéos… Et leur constat, c'est que l'IA, bien qu'encore peu utilisée par les candidats dans leur ensemble, est principalement exploitée par l'extrême droite. L'impact de ces images sur les votes reste difficile à mesurer. Mais les chercheurs déplorent que les personnes voyant passer ces contenus ne semblent pas réaliser qu'ils ont été générés par l'IA.