Hebdomadaire Shaarli

Tous les liens d'un semaine sur une page.

Semaine 48 (November 25, 2024)

Pédopornographie et IA : une menace face à un vide juridique | Synth Media

Les images générées par intelligence artificielle (IA), à la frontière entre le réel et le virtuel, brouillent les lignes légales en matière de pédocriminalité. En France l’alerte est lancée par la Fondation pour l’enfance pour qui « beaucoup de ses photos et vidéos montrant des mineurs agressés et maltraités sont si réaliste qu’il est presque impossible de les distinguer d’images de vrais enfants. »

Si la modération des IA comme Chat GPT, DALL-E, Midjourney empêche en principe la création de contenus inappropriés par leurs conditions d’utilisation, les garde-fous techniques restent limités. Les modèles d’IA génératives en sources ouvertes, tels que Stable Diffusion, offrent peu de contrôle sur les requêtes des utilisateurs, laissant libre cours à des usages détournés.

L'État artificiel : la vie civique automatisée | Dans les algorithmes
thumbnail

Le philosophe Rob Horning rapporte que des chercheurs de Google ont publié un article décrivant un projet de « Machines d’Habermas » – hommage au philosophe et à sa théorie de l’espace public – décrivant des machines permettant de faciliter la délibération démocratique. L’idée consiste à utiliser des IA génératives pour générer des déclarations de groupes à partir d’opinions individuelles, en maximisant l’approbation collective par itération successive. Le but : trouver des terrains d’entente sur des sujets clivants, avec une IA qui fonctionne comme un médiateur.

La perspective que dessinent les ingénieurs de Google consiste à court-circuiter le processus démocratique lui-même. Leur proposition vise à réduire la politique en un simple processus d’optimisation et de résolution de problèmes. La médiation par la machine vise clairement à évacuer la conflictualité, au cœur de la politique. Elle permet d’améliorer le contrôle social, au détriment de l’action collective ou de l’engagement, puisque ceux-ci sont de fait évacués par le rejet du conflit. Une politique sans passion ni conviction, où les citoyens eux-mêmes sont finalement évacués. La démocratie est réduite à une simple mécanique de décisions, sans plus aucune participation active.

À chaque étape de l’émergence de l’État artificiel, les leaders technologiques ont promis que les derniers outils seraient bons pour la démocratie… mais ce n’est pas ce qui s’est passé, notamment parce qu’aucun de ces outils ne sont démocratiques. Au contraire, le principal pouvoir de ces outils, de Facebook à X, est d’abord d’offrir aux entreprises un contrôle sans précédent de la parole, leur permettant de moduler tout ce à quoi l’usager accède.

Vera, un nouvel outil à base d'IA et de fact-checking pour contrer la désinformation | Conspiracy Watch - L'Observatoire du conspirationnisme
thumbnail

Vera se comporte comme un chatbot (bot conversationnel) classique, similaire à celui de ChatGPT, mais dont la spécificité est de s'abreuver, en temps réel, aux contenus de plus de 300 médias fiables pour générer une réponse documentée, sourcée et impartiale. Elle s'appuie sur les ressources de plus de 100 équipes et collectifs reconnus, signataires du code de l’International Fact-Checking Network (IFCN) ou membres de l’European Fact-Checking Standards Network (EFCSN), parmi lesquelles AFP Factuel, Snopes, Correctiv, Les Surligneurs ou encore Conspiracy Watch.

Intelligence artificielle : un dispositif de « froideur bourgeoise » ? par Julien De Sanctis | Mais où va le web ?
thumbnail

Seul le temps pourra donc confirmer ou infirmer le caractère anthropologiquement révolutionnaire de l’IA. Une chose est sûre cependant : l’organisation sociale dont émane l’intelligence artificielle actuellement dominante, celle que l’artiste et essayiste James Bridle nomme « corporate AI », n’a strictement rien de révolutionnaire, tant elle repose sur une « industrie extractive » qui exploite violemment les ressources naturelles et la main-d’œuvre bon marché. Les sources d’informations sur la réalité de ce système ne manquent plus et se multiplient. Les conditions de production de l’IA interrogent donc notre rapport collectif à l’altérité humaine et non-humaine et font de l’intelligence artificielle un enjeu moral autant que politique, technique et économique. C’est cet enjeu moral que je voudrais détailler ici en développant l’idée que l’IA dominante telle qu’elle est faite est un dispositif rendu possible par notre « froideur bourgeoise », pour reprendre le concept du philosophe allemand Théodore W. Adorno.

De la même façon que la mise à mort des animaux d’élevage se fait dans des abattoirs situés en périphérie des villes, c’est-à-dire à l’abri des regards, nous ne sommes jamais confronté·es en personne aux maltraitances et aux destructions qu’occasionne l’industrie de l’IA. Loin des yeux, loin du cœur, donc. Cette distanciation morale est d’ailleurs renforcée par le mirage d’immatérialité qui auréole les systèmes d’intelligence artificielle.