3 liens privés
Le philosophe Rob Horning rapporte que des chercheurs de Google ont publié un article décrivant un projet de « Machines d’Habermas » – hommage au philosophe et à sa théorie de l’espace public – décrivant des machines permettant de faciliter la délibération démocratique. L’idée consiste à utiliser des IA génératives pour générer des déclarations de groupes à partir d’opinions individuelles, en maximisant l’approbation collective par itération successive. Le but : trouver des terrains d’entente sur des sujets clivants, avec une IA qui fonctionne comme un médiateur.
La perspective que dessinent les ingénieurs de Google consiste à court-circuiter le processus démocratique lui-même. Leur proposition vise à réduire la politique en un simple processus d’optimisation et de résolution de problèmes. La médiation par la machine vise clairement à évacuer la conflictualité, au cœur de la politique. Elle permet d’améliorer le contrôle social, au détriment de l’action collective ou de l’engagement, puisque ceux-ci sont de fait évacués par le rejet du conflit. Une politique sans passion ni conviction, où les citoyens eux-mêmes sont finalement évacués. La démocratie est réduite à une simple mécanique de décisions, sans plus aucune participation active.
À chaque étape de l’émergence de l’État artificiel, les leaders technologiques ont promis que les derniers outils seraient bons pour la démocratie… mais ce n’est pas ce qui s’est passé, notamment parce qu’aucun de ces outils ne sont démocratiques. Au contraire, le principal pouvoir de ces outils, de Facebook à X, est d’abord d’offrir aux entreprises un contrôle sans précédent de la parole, leur permettant de moduler tout ce à quoi l’usager accède.
Avec l’Observatoire des algorithmes de services publics, des expertes du sujet cherchent à mieux comprendre comment l’administration s’empare de l’IA et à ouvrir le débat sur l’usage de ces technologies.
Notre objectif est donc double : il s’agit d’une part de centraliser des informations qui sont difficilement accessibles, donc de créer une plateforme sur laquelle tous ces éléments seraient accessibles. La seconde raison est de montrer la variété de ce qui se cache derrière le terme d’ « algorithmes publics », montrer que ça peut aussi bien être des algorithmes sophistiqués que des algorithmes par règles, qui automatisent pour autant aussi la décision publique.
Créé par le ministère du Travail, de la Santé et des Solidarités et Inria en 2021, le LaborIA est un programme de recherche-action centré sur l’analyse des impacts de l’Intelligence Artificielle (IA) sur le travail, l’emploi et les compétences. Après deux années d’enquêtes opérées par Matrice (institut d'innovation étudiant notamment les effets sociaux de l'IA), le LaborIA « Explorer » publie des résultats inédits sur les interactions humain-machine et les enjeux d'appropriation de l'IA dans le monde du travail, et formule des recommandations.
Face au nombre croissant de décisions administratives individuelles prises sur la base de résultats livrés par des algorithmes ou systèmes d’IA, la Défenseure des droits s’inquiète des risques qu’induit cette algorithmisation des services publics pour les droits des usagers. Elle présente plusieurs recommandations afin que les garanties prévues par la loi soient pleinement concrétisées.
L’IA dans les services publics, on en parle plus qu’on ne la voit, regrette le syndicat Solidaires Finances Publiques qui tente de faire le point de ses déploiements au Trésor Public. Les représentants du personnel dénoncent des déploiements opaques pour les usagers comme pour les personnels et regrettent que les agents soient si peu associés aux projets. Ce qui n’est pas sans conséquence sur leur travail et sur la capacité même des agents des impôts à accomplir leur mission. C’est la force de leurs réflexions : faire remonter les difficultés que le déploiement de l’IA génère et nous rappeler que l’enjeu de l’IA n’a rien de technique.
Dans l’administration publique, l’IA est d’abord un prétexte, non pour améliorer les missions et accompagner les agents, mais pour réduire les personnels. Le risque est que cela ne soit pas un moyen mais un but. Faire que l’essentiel du contrôle fiscal, demain, soit automatisé. Le sujet de l’IA vient d’en haut plutôt que d’être pensé avec les équipes, pour les aider à faire leur métier. Ces exemples nous rappellent que le déploiement de l’IA dans les organisations n’est pas qu’un enjeu de calcul, c’est d’abord un enjeu social et de collaboration, qui risque d’écarter les personnels et les citoyens des décisions et des orientations prises.
Pour cette troisième édition, le baromètre de l'observatoire Data Publica a interrogé près de 300 collectivités sur leurs pratiques en matière de données, d'intelligence artificielle et de cybersécurité. Cette enquête, à laquelle ont participé de nombreuses communes de moins de 3.500 habitants (43% de l'échantillon), a été complétée par un sondage réalisé par l'Ifop auprès de 1.000 personnes représentatives de la population française.
Mi-2024, plus d'une collectivité sur deux (51%) annonce avoir mis en place un système d'intelligence artificielle ou en prévoir un dans l'année à venir. Les domaines de prédilection de l'IA sont l'administration interne (29%) et la relation usagers (11%), les enjeux smart city (mobilité, eau, déchets, sécurité) recueillant pour leur part chacun aux alentours de 10-12%. Les grandes collectivités montrent cependant une fois de plus une plus grande maturité. 75% des régions et 62% des métropoles ont déjà engagé des projets d'IA.
Si les collectivités sont désormais majoritaires à prendre le tournant de la data et de l'IA, il leur restera à convaincre les Français dans le contexte d'une aggravation des menaces cyber. Car les Français, et notamment les plus âgés d'entre eux, restent sceptiques face à l'usage croissant des données : 55% voient cette tendance négativement, le chiffre pour l'IA étant quasi identique (51%).
Les IA génératives gagnent en notoriété auprès du grand public (78% en ont déjà entendu parler cette année contre 71% en mai 2023). Leur utilisation reste minoritaire mais progresse (25% de l’ensemble des Français déclarent y avoir recours contre 16% en mai 2023) et Chat GPT demeure l’outil de référence.
L’étude « L’Impact des IA génératives sur les étudiants », a été réalisée à partir des données du sondage réalisé en février et mars 2024 dans le cadre de l’hackathon pédagogique transversal du Pôle Léonard de Vinci : L’intelligence artificielle, les IA génératives et leurs enjeux sociétaux. Cet hackathon a regroupé, pendant cinq jours, les 1 600 étudiants de 4e année des trois écoles du Pôle Léonard de Vinci : l’EMLV (Management), l’ESILV (Ingénieurs) et l’IIM (Digital).
- 99% utilisent des IA génératives (92% en ont une utilisation régulière)
- 65% estiment que la présence des IA génératives fait partie des principaux critères de choix de leur future entreprise
- 30% payent un abonnement ChatGPT 4 à 20 € par mois
Parmi les principaux gains perçus par les étudiants grâce aux IA génératives :
• 83% diminuer leur temps de travail
• 79% enrichir leur capacité de résoudre des problèmes complexes
• 65% augmenter leur productivité et leur performance
• 62% gagner du temps dans la vie quotidienne
Le nombre d’algorithmes utilisés par le service public en France ne fait qu’augmenter depuis de nombreuses années. Pourtant, il est difficile d’en obtenir une vision d’ensemble. Un inventaire peut-il être une réponse ?
Le secteur public participe activement à cette évolution [IA] : en France, de nombreuses administrations se sont engagées dans l’expérimentation et l’utilisation d’outils algorithmiques, y compris dans des secteurs clés tels que la justice, les armées, l’éducation ou les finances publiques. Aujourd’hui, de tels algorithmes servent à documenter, orienter, voire automatiser les décisions publiques. Leur utilisation soulève ainsi d’importantes questions en termes de responsabilité, de compréhension et d’égalité de l’action publique.
Les administrations utilisant des algorithmes sont soumises à des obligations de transparence, instaurées en 2016 par la loi pour une République numérique. En 2021, la France a renforcé cet engagement en promettant de réaliser un inventaire des algorithmes publics dans le cadre du Partenariat pour un Gouvernement Ouvert. Pourtant, en pratique, l’usage d’algorithmes par les administrations publiques reste encore opaque. Dans les cas, rares, où ces outils font l’objet de communications, les informations diffusées demeurent souvent incomplètes ou difficiles d’accès. Seules quelques administrations ont publié des inventaires des algorithmes qu’elles utilisent, par ailleurs partiels pour la plupart.
Moins de la moitié des algorithmes recensés soumis à l’obligation de transparence posée par le code des relations entre le public et les administrations (CRPA) respectent cette obligation. Seuls 4% des algorithmes répertoriés dans l’inventaire ont fait l’objet d’une évaluation interne diffusée publiquement. Il est également presque impossible de savoir combien ces systèmes ont coûté (3 projets seulement sur 72 ont diffusé un budget), sur quelles données ils ont été entrainés, ou pourquoi un algorithme a été choisi plutôt qu’un autre.
Le projet DIALIA (“Dialogue IA”) est coordonnée par l’IRES, en partenariat avec quatre des organisations syndicales membres de l’Institut : la CFDT, la CFE-CGC, FO Cadres, l’UGICT CGT, Le projet est cofinancé par l’ANACT. Il vise à contribuer à déployer un cadre méthodologique partagé pour faire du développement du dialogue social technologique au travail et de la déclinaison de l’accord cadre européen de 2020 sur la numérisation du travail un levier opérationnel de la transformation numérique.
Vendredi, on apprenait que des chercheurs chinois liés à l'Armée populaire de libération avaient entrainé le modèle de langage Llama à des fins militaires, en violation des règles d'utilisation de Meta. Ce lundi, le président des affaires internationales de Meta révèle de son côté que des prestataires de l'armée états-unienne utilisent déjà Llama à des fins militaires, et qu'elle va autoriser les « Five Eyes » à faire de même.
L'entreprise a précisé qu'elle mettrait ses modèles d'IA Llama à la disposition des agences fédérales et qu'elle travaillait aussi avec des entreprises de défense telles que Lockheed Martin et Booz Allen, ainsi qu'avec des entreprises technologiques axées sur la défense, notamment Palantir et Anduril, et des prestataires d'agences gouvernementales, telles qu'Amazon Web Services, IBM, Oracle et Microsoft.
Dans la cacophonie médiatique comme dans le fond des sujets, l’appréhension et la hiérarchisation des risques de l’intelligence artificielle vise souvent à côté, et les réponses aux antédiluviennes questions sur les dégâts du progrès sont toujours attendues. Nous souhaitons avec ce texte, réarmer le débat sur l’IA en portant l’attention – un peu arbitrairement peut-être – sur quatre angles morts qui le polluent actuellement.
De manière générale, les médias commentent les percées technologiques (souvent très relatives) et le développement économique, au détriment des questions sociales et éthiques. Et lorsque celles-ci surgissent, elles puisent le plus souvent dans un répertoire de références populaires issues de la science-fiction.
C’est là un autre point aveugle dans le débat sur les risques de l’IA : la qualité de la négociation locale à propos de la légitimité de son déploiement et, le cas échéant, ses modes de diffusion au sein des entreprises.
Il y a quelques mois, Inflection AI, Character AI et Adept AI faisaient partie des start-up les plus prometteuses de l’intelligence artificielle générative, levant en tout deux milliards de dollars. Elles ne sont aujourd’hui plus que l’ombre d’elles-mêmes, dépecées respectivement par Microsoft, Google et Amazon, devenant le symbole d’une nouvelle réalité. Elles ne disposaient plus des moyens financiers pour faire face aux immenses coûts d’entraînement et d’inférence des modèles d’IA. Et leurs investisseurs ont surtout cherché à limiter la casse avant qu’il ne soit trop tard.
Pour monétiser l’intelligence artificielle, Google n’a pas opté pour une approche révolutionnaire, comme le fait Perplexity, qui tente d’imposer le format novateur de questions sponsorisées. Le groupe a simplement repris les recettes déjà employées sur son moteur de recherche, qui lui permettent d’être le champion de la publicité en ligne. Concrètement, un carrousel de produits sponsorisés (les marques ou les distributeurs doivent payer pour y apparaître) s’affichera avant, après ou au sein de la réponse générée par Gemini, lorsqu’un internaute posera une question avec un “angle commercial”, c’est-à-dire qui peut se traduire par un achat en quelques clics.
L’open source est une notion jusqu’à aujourd’hui mal définie dans le domaine de l’intelligence artificielle (IA). Certains modèles se présentent parfois comme open source au sens où leurs poids sont téléchargeables et réutilisables, sans pour autant que l’on puisse parler strictement d’ouverture : les modalités de réutilisation peuvent être restreintes, une marque commerciale peut être imposée et il est rare que tous les éléments soient fournis publiquement pour permettre de reproduire toutes les étapes de production du modèle.
Pour y voir plus clair, le PEReN a développé un outil de comparaison des degrés d’ouverture de certains modèles d’IA générative au regard de la définition inédite de l’OSI. Ce comparateur interactif vous permet ainsi de déterminer quels modèles sont compatibles avec vos cas d’usage ou votre philosophie en configurant les critères selon vos préférences ! Le nombre de modèles considérable ne permet pas l’exhaustivité. L’outil concerne donc une sélection de modèles répandus ou associés à des licences particulières.
This is the first time the carbon emissions caused by using an AI model for different tasks have been calculated.
In fact, generating an image using a powerful AI model takes as much energy as fully charging your smartphone, according to a new study by researchers at the AI startup Hugging Face and Carnegie Mellon University. However, they found that using an AI model to generate text is significantly less energy-intensive. Creating text 1,000 times only uses as much energy as 16% of a full smartphone charge.
Their work, which is yet to be peer reviewed, shows that while training massive AI models is incredibly energy intensive, it’s only one part of the puzzle. Most of their carbon footprint comes from their actual use.
Les données utilisées pour entraîner les IA reflètent les stéréotypes et les préjugés de la société, par exemple envers des groupes sous-représentés. Pour conserver la confidentialité de données sensibles, comme les données de santé, tout en garantissant qu’elles ne sont pas biaisées, il faut adapter les méthodes d’apprentissage.
Et si plutôt que refléter, voire exacerber une réalité actuelle dysfonctionnelle, l’IA pouvait être vertueuse et servir à corriger les biais dans la société, pour une société plus inclusive ? C’est ce que proposent les chercheurs avec une nouvelle approche : l’« apprentissage fédéré ».
L’utilisation des données personnelles par les grandes plateformes de réseaux sociaux suscite un vif débat, à la lumière des récentes découvertes concernant LinkedIn, Snapchat et Meta. Ces entreprises exploitent les informations publiques de leurs utilisateurs pour former des modèles d’intelligence artificielle sans que ces derniers en soient pleinement conscients.
Découvrez les grands acteurs du monde de l'IA, de l'analyse de données et de l'apprentissage automatique.
FirstMark, société de capital-risque basée à New York, a publié sa cartographie de l’écosystème des données, de l’analytique, de l’apprentissage automatique et de l’IA en 2024. Le travail accompli est d’une ampleur colossale : il regroupe plus de 2 000 logos (entreprises ou solutions), répartis dans 9 catégories et près de 100 sous-catégories. Tour d’horizon.
Le marché des infrastructures réseau connaît une dynamique et un intérêt sans précédent depuis des décennies, et l'intelligence artificielle promet de le rendre encore plus fascinant.
La transition de l’informatique à usage général à l’informatique accélérée nécessite de nouveaux logiciels et architectures de réseaux distribués pour connecter, déplacer et traiter les données à des vitesses fulgurantes, avec une très faible latence et presque aucune tolérance à la perte de données.
À l'heure où tous les mastodontes du numérique, GAFAM comme instituts de recherche comme nouveaux entrants financés par le capital risque se mettent à publier des modèles en masse (la plateforme Hugging Face a ainsi dépassé le million de modèles déposés le mois dernier), la question du caractère « open-source » de l'IA se pose de plus en plus.
L’Open Source Initiative a attrapé le syndrome FOMO – tout comme le jury du prix Nobel. Elle souhaite également participer à l’engouement pour l’« IA ». Mais pour les systèmes que nous appelons aujourd’hui « IA », l’IA open source n’est pas possible dans la pratique. En effet, nous ne pourrons jamais télécharger toutes les données d’entraînement réelles.