3 liens privés
Suite et fin de la transcription de la seconde partie dédiée au fonctionnement des IA.
Suite de la série consacrée à la conférence de Mélanie Mitchell sur l’avenir de l’intelligence artificielle.
Suite et fin de la transcription de la première partie dédiée à l'histoire de l'IA.
Pour introduire à l’IA, j’ai conseillé la lecture d’Intelligence artificielle. Triomphes et déceptions de la chercheuse et spécialiste Melanie Mitchell. Elle a donné récemment une conférence The Future of Artificial Intelligence qui intègre la question des IA génératives. Cette conférence est vraiment bien faite, elle couvre l’histoire de l’IA jusqu’à aujourd’hui, donne juste ce qu’il faut d’explication technique et aborde des problèmes cruciaux. Mais elle est en anglais, ce qui peut être un obstacle pour un public déjà non spécialiste de l’IA et de plus francophone. J’ai projeté d’en faire une adaptation écrite et demandé son accord à Melanie Mitchell. Ce qu’elle a fait immédiatement et je l’en remercie vivement.
Alors que l’intelligence artificielle accélère la propagation de fausses images, les cours d’histoire se doivent d’intégrer une formation à l’histoire numérique. Explications avec le projet VIRAPIC.
En constituant une base de référencement des photographies virales, détournées, décontextualisées ou inventées autour d’évènement historiques, le projet VIRAPIC permettra d’accéder rapidement à un contenu historique solide et critique sur les images que les élèves, enseignants ou éditeurs souhaitent publier en ligne ou utiliser en cours.
Les images générées par intelligence artificielle (IA), à la frontière entre le réel et le virtuel, brouillent les lignes légales en matière de pédocriminalité. En France l’alerte est lancée par la Fondation pour l’enfance pour qui « beaucoup de ses photos et vidéos montrant des mineurs agressés et maltraités sont si réaliste qu’il est presque impossible de les distinguer d’images de vrais enfants. »
Si la modération des IA comme Chat GPT, DALL-E, Midjourney empêche en principe la création de contenus inappropriés par leurs conditions d’utilisation, les garde-fous techniques restent limités. Les modèles d’IA génératives en sources ouvertes, tels que Stable Diffusion, offrent peu de contrôle sur les requêtes des utilisateurs, laissant libre cours à des usages détournés.
Vera se comporte comme un chatbot (bot conversationnel) classique, similaire à celui de ChatGPT, mais dont la spécificité est de s'abreuver, en temps réel, aux contenus de plus de 300 médias fiables pour générer une réponse documentée, sourcée et impartiale. Elle s'appuie sur les ressources de plus de 100 équipes et collectifs reconnus, signataires du code de l’International Fact-Checking Network (IFCN) ou membres de l’European Fact-Checking Standards Network (EFCSN), parmi lesquelles AFP Factuel, Snopes, Correctiv, Les Surligneurs ou encore Conspiracy Watch.
Seul le temps pourra donc confirmer ou infirmer le caractère anthropologiquement révolutionnaire de l’IA. Une chose est sûre cependant : l’organisation sociale dont émane l’intelligence artificielle actuellement dominante, celle que l’artiste et essayiste James Bridle nomme « corporate AI », n’a strictement rien de révolutionnaire, tant elle repose sur une « industrie extractive » qui exploite violemment les ressources naturelles et la main-d’œuvre bon marché. Les sources d’informations sur la réalité de ce système ne manquent plus et se multiplient. Les conditions de production de l’IA interrogent donc notre rapport collectif à l’altérité humaine et non-humaine et font de l’intelligence artificielle un enjeu moral autant que politique, technique et économique. C’est cet enjeu moral que je voudrais détailler ici en développant l’idée que l’IA dominante telle qu’elle est faite est un dispositif rendu possible par notre « froideur bourgeoise », pour reprendre le concept du philosophe allemand Théodore W. Adorno.
De la même façon que la mise à mort des animaux d’élevage se fait dans des abattoirs situés en périphérie des villes, c’est-à-dire à l’abri des regards, nous ne sommes jamais confronté·es en personne aux maltraitances et aux destructions qu’occasionne l’industrie de l’IA. Loin des yeux, loin du cœur, donc. Cette distanciation morale est d’ailleurs renforcée par le mirage d’immatérialité qui auréole les systèmes d’intelligence artificielle.
Le philosophe Rob Horning rapporte que des chercheurs de Google ont publié un article décrivant un projet de « Machines d’Habermas » – hommage au philosophe et à sa théorie de l’espace public – décrivant des machines permettant de faciliter la délibération démocratique. L’idée consiste à utiliser des IA génératives pour générer des déclarations de groupes à partir d’opinions individuelles, en maximisant l’approbation collective par itération successive. Le but : trouver des terrains d’entente sur des sujets clivants, avec une IA qui fonctionne comme un médiateur.
La perspective que dessinent les ingénieurs de Google consiste à court-circuiter le processus démocratique lui-même. Leur proposition vise à réduire la politique en un simple processus d’optimisation et de résolution de problèmes. La médiation par la machine vise clairement à évacuer la conflictualité, au cœur de la politique. Elle permet d’améliorer le contrôle social, au détriment de l’action collective ou de l’engagement, puisque ceux-ci sont de fait évacués par le rejet du conflit. Une politique sans passion ni conviction, où les citoyens eux-mêmes sont finalement évacués. La démocratie est réduite à une simple mécanique de décisions, sans plus aucune participation active.
À chaque étape de l’émergence de l’État artificiel, les leaders technologiques ont promis que les derniers outils seraient bons pour la démocratie… mais ce n’est pas ce qui s’est passé, notamment parce qu’aucun de ces outils ne sont démocratiques. Au contraire, le principal pouvoir de ces outils, de Facebook à X, est d’abord d’offrir aux entreprises un contrôle sans précédent de la parole, leur permettant de moduler tout ce à quoi l’usager accède.
Avec l’Observatoire des algorithmes de services publics, des expertes du sujet cherchent à mieux comprendre comment l’administration s’empare de l’IA et à ouvrir le débat sur l’usage de ces technologies.
Notre objectif est donc double : il s’agit d’une part de centraliser des informations qui sont difficilement accessibles, donc de créer une plateforme sur laquelle tous ces éléments seraient accessibles. La seconde raison est de montrer la variété de ce qui se cache derrière le terme d’ « algorithmes publics », montrer que ça peut aussi bien être des algorithmes sophistiqués que des algorithmes par règles, qui automatisent pour autant aussi la décision publique.
Créé par le ministère du Travail, de la Santé et des Solidarités et Inria en 2021, le LaborIA est un programme de recherche-action centré sur l’analyse des impacts de l’Intelligence Artificielle (IA) sur le travail, l’emploi et les compétences. Après deux années d’enquêtes opérées par Matrice (institut d'innovation étudiant notamment les effets sociaux de l'IA), le LaborIA « Explorer » publie des résultats inédits sur les interactions humain-machine et les enjeux d'appropriation de l'IA dans le monde du travail, et formule des recommandations.
Face au nombre croissant de décisions administratives individuelles prises sur la base de résultats livrés par des algorithmes ou systèmes d’IA, la Défenseure des droits s’inquiète des risques qu’induit cette algorithmisation des services publics pour les droits des usagers. Elle présente plusieurs recommandations afin que les garanties prévues par la loi soient pleinement concrétisées.
L’IA dans les services publics, on en parle plus qu’on ne la voit, regrette le syndicat Solidaires Finances Publiques qui tente de faire le point de ses déploiements au Trésor Public. Les représentants du personnel dénoncent des déploiements opaques pour les usagers comme pour les personnels et regrettent que les agents soient si peu associés aux projets. Ce qui n’est pas sans conséquence sur leur travail et sur la capacité même des agents des impôts à accomplir leur mission. C’est la force de leurs réflexions : faire remonter les difficultés que le déploiement de l’IA génère et nous rappeler que l’enjeu de l’IA n’a rien de technique.
Dans l’administration publique, l’IA est d’abord un prétexte, non pour améliorer les missions et accompagner les agents, mais pour réduire les personnels. Le risque est que cela ne soit pas un moyen mais un but. Faire que l’essentiel du contrôle fiscal, demain, soit automatisé. Le sujet de l’IA vient d’en haut plutôt que d’être pensé avec les équipes, pour les aider à faire leur métier. Ces exemples nous rappellent que le déploiement de l’IA dans les organisations n’est pas qu’un enjeu de calcul, c’est d’abord un enjeu social et de collaboration, qui risque d’écarter les personnels et les citoyens des décisions et des orientations prises.
Pour cette troisième édition, le baromètre de l'observatoire Data Publica a interrogé près de 300 collectivités sur leurs pratiques en matière de données, d'intelligence artificielle et de cybersécurité. Cette enquête, à laquelle ont participé de nombreuses communes de moins de 3.500 habitants (43% de l'échantillon), a été complétée par un sondage réalisé par l'Ifop auprès de 1.000 personnes représentatives de la population française.
Mi-2024, plus d'une collectivité sur deux (51%) annonce avoir mis en place un système d'intelligence artificielle ou en prévoir un dans l'année à venir. Les domaines de prédilection de l'IA sont l'administration interne (29%) et la relation usagers (11%), les enjeux smart city (mobilité, eau, déchets, sécurité) recueillant pour leur part chacun aux alentours de 10-12%. Les grandes collectivités montrent cependant une fois de plus une plus grande maturité. 75% des régions et 62% des métropoles ont déjà engagé des projets d'IA.
Si les collectivités sont désormais majoritaires à prendre le tournant de la data et de l'IA, il leur restera à convaincre les Français dans le contexte d'une aggravation des menaces cyber. Car les Français, et notamment les plus âgés d'entre eux, restent sceptiques face à l'usage croissant des données : 55% voient cette tendance négativement, le chiffre pour l'IA étant quasi identique (51%).
Les IA génératives gagnent en notoriété auprès du grand public (78% en ont déjà entendu parler cette année contre 71% en mai 2023). Leur utilisation reste minoritaire mais progresse (25% de l’ensemble des Français déclarent y avoir recours contre 16% en mai 2023) et Chat GPT demeure l’outil de référence.
L’étude « L’Impact des IA génératives sur les étudiants », a été réalisée à partir des données du sondage réalisé en février et mars 2024 dans le cadre de l’hackathon pédagogique transversal du Pôle Léonard de Vinci : L’intelligence artificielle, les IA génératives et leurs enjeux sociétaux. Cet hackathon a regroupé, pendant cinq jours, les 1 600 étudiants de 4e année des trois écoles du Pôle Léonard de Vinci : l’EMLV (Management), l’ESILV (Ingénieurs) et l’IIM (Digital).
- 99% utilisent des IA génératives (92% en ont une utilisation régulière)
- 65% estiment que la présence des IA génératives fait partie des principaux critères de choix de leur future entreprise
- 30% payent un abonnement ChatGPT 4 à 20 € par mois
Parmi les principaux gains perçus par les étudiants grâce aux IA génératives :
• 83% diminuer leur temps de travail
• 79% enrichir leur capacité de résoudre des problèmes complexes
• 65% augmenter leur productivité et leur performance
• 62% gagner du temps dans la vie quotidienne
Le nombre d’algorithmes utilisés par le service public en France ne fait qu’augmenter depuis de nombreuses années. Pourtant, il est difficile d’en obtenir une vision d’ensemble. Un inventaire peut-il être une réponse ?
Le secteur public participe activement à cette évolution [IA] : en France, de nombreuses administrations se sont engagées dans l’expérimentation et l’utilisation d’outils algorithmiques, y compris dans des secteurs clés tels que la justice, les armées, l’éducation ou les finances publiques. Aujourd’hui, de tels algorithmes servent à documenter, orienter, voire automatiser les décisions publiques. Leur utilisation soulève ainsi d’importantes questions en termes de responsabilité, de compréhension et d’égalité de l’action publique.
Les administrations utilisant des algorithmes sont soumises à des obligations de transparence, instaurées en 2016 par la loi pour une République numérique. En 2021, la France a renforcé cet engagement en promettant de réaliser un inventaire des algorithmes publics dans le cadre du Partenariat pour un Gouvernement Ouvert. Pourtant, en pratique, l’usage d’algorithmes par les administrations publiques reste encore opaque. Dans les cas, rares, où ces outils font l’objet de communications, les informations diffusées demeurent souvent incomplètes ou difficiles d’accès. Seules quelques administrations ont publié des inventaires des algorithmes qu’elles utilisent, par ailleurs partiels pour la plupart.
Moins de la moitié des algorithmes recensés soumis à l’obligation de transparence posée par le code des relations entre le public et les administrations (CRPA) respectent cette obligation. Seuls 4% des algorithmes répertoriés dans l’inventaire ont fait l’objet d’une évaluation interne diffusée publiquement. Il est également presque impossible de savoir combien ces systèmes ont coûté (3 projets seulement sur 72 ont diffusé un budget), sur quelles données ils ont été entrainés, ou pourquoi un algorithme a été choisi plutôt qu’un autre.
Le projet DIALIA (“Dialogue IA”) est coordonnée par l’IRES, en partenariat avec quatre des organisations syndicales membres de l’Institut : la CFDT, la CFE-CGC, FO Cadres, l’UGICT CGT, Le projet est cofinancé par l’ANACT. Il vise à contribuer à déployer un cadre méthodologique partagé pour faire du développement du dialogue social technologique au travail et de la déclinaison de l’accord cadre européen de 2020 sur la numérisation du travail un levier opérationnel de la transformation numérique.
Vendredi, on apprenait que des chercheurs chinois liés à l'Armée populaire de libération avaient entrainé le modèle de langage Llama à des fins militaires, en violation des règles d'utilisation de Meta. Ce lundi, le président des affaires internationales de Meta révèle de son côté que des prestataires de l'armée états-unienne utilisent déjà Llama à des fins militaires, et qu'elle va autoriser les « Five Eyes » à faire de même.
L'entreprise a précisé qu'elle mettrait ses modèles d'IA Llama à la disposition des agences fédérales et qu'elle travaillait aussi avec des entreprises de défense telles que Lockheed Martin et Booz Allen, ainsi qu'avec des entreprises technologiques axées sur la défense, notamment Palantir et Anduril, et des prestataires d'agences gouvernementales, telles qu'Amazon Web Services, IBM, Oracle et Microsoft.
Dans la cacophonie médiatique comme dans le fond des sujets, l’appréhension et la hiérarchisation des risques de l’intelligence artificielle vise souvent à côté, et les réponses aux antédiluviennes questions sur les dégâts du progrès sont toujours attendues. Nous souhaitons avec ce texte, réarmer le débat sur l’IA en portant l’attention – un peu arbitrairement peut-être – sur quatre angles morts qui le polluent actuellement.
De manière générale, les médias commentent les percées technologiques (souvent très relatives) et le développement économique, au détriment des questions sociales et éthiques. Et lorsque celles-ci surgissent, elles puisent le plus souvent dans un répertoire de références populaires issues de la science-fiction.
C’est là un autre point aveugle dans le débat sur les risques de l’IA : la qualité de la négociation locale à propos de la légitimité de son déploiement et, le cas échéant, ses modes de diffusion au sein des entreprises.