Quotidien Shaarli
November 7, 2024
Le projet DIALIA (“Dialogue IA”) est coordonnée par l’IRES, en partenariat avec quatre des organisations syndicales membres de l’Institut : la CFDT, la CFE-CGC, FO Cadres, l’UGICT CGT, Le projet est cofinancé par l’ANACT. Il vise à contribuer à déployer un cadre méthodologique partagé pour faire du développement du dialogue social technologique au travail et de la déclinaison de l’accord cadre européen de 2020 sur la numérisation du travail un levier opérationnel de la transformation numérique.
Il y a quelques mois, Inflection AI, Character AI et Adept AI faisaient partie des start-up les plus prometteuses de l’intelligence artificielle générative, levant en tout deux milliards de dollars. Elles ne sont aujourd’hui plus que l’ombre d’elles-mêmes, dépecées respectivement par Microsoft, Google et Amazon, devenant le symbole d’une nouvelle réalité. Elles ne disposaient plus des moyens financiers pour faire face aux immenses coûts d’entraînement et d’inférence des modèles d’IA. Et leurs investisseurs ont surtout cherché à limiter la casse avant qu’il ne soit trop tard.
Pour monétiser l’intelligence artificielle, Google n’a pas opté pour une approche révolutionnaire, comme le fait Perplexity, qui tente d’imposer le format novateur de questions sponsorisées. Le groupe a simplement repris les recettes déjà employées sur son moteur de recherche, qui lui permettent d’être le champion de la publicité en ligne. Concrètement, un carrousel de produits sponsorisés (les marques ou les distributeurs doivent payer pour y apparaître) s’affichera avant, après ou au sein de la réponse générée par Gemini, lorsqu’un internaute posera une question avec un “angle commercial”, c’est-à-dire qui peut se traduire par un achat en quelques clics.
Vendredi, on apprenait que des chercheurs chinois liés à l'Armée populaire de libération avaient entrainé le modèle de langage Llama à des fins militaires, en violation des règles d'utilisation de Meta. Ce lundi, le président des affaires internationales de Meta révèle de son côté que des prestataires de l'armée états-unienne utilisent déjà Llama à des fins militaires, et qu'elle va autoriser les « Five Eyes » à faire de même.
L'entreprise a précisé qu'elle mettrait ses modèles d'IA Llama à la disposition des agences fédérales et qu'elle travaillait aussi avec des entreprises de défense telles que Lockheed Martin et Booz Allen, ainsi qu'avec des entreprises technologiques axées sur la défense, notamment Palantir et Anduril, et des prestataires d'agences gouvernementales, telles qu'Amazon Web Services, IBM, Oracle et Microsoft.
L’open source est une notion jusqu’à aujourd’hui mal définie dans le domaine de l’intelligence artificielle (IA). Certains modèles se présentent parfois comme open source au sens où leurs poids sont téléchargeables et réutilisables, sans pour autant que l’on puisse parler strictement d’ouverture : les modalités de réutilisation peuvent être restreintes, une marque commerciale peut être imposée et il est rare que tous les éléments soient fournis publiquement pour permettre de reproduire toutes les étapes de production du modèle.
Pour y voir plus clair, le PEReN a développé un outil de comparaison des degrés d’ouverture de certains modèles d’IA générative au regard de la définition inédite de l’OSI. Ce comparateur interactif vous permet ainsi de déterminer quels modèles sont compatibles avec vos cas d’usage ou votre philosophie en configurant les critères selon vos préférences ! Le nombre de modèles considérable ne permet pas l’exhaustivité. L’outil concerne donc une sélection de modèles répandus ou associés à des licences particulières.
Dans la cacophonie médiatique comme dans le fond des sujets, l’appréhension et la hiérarchisation des risques de l’intelligence artificielle vise souvent à côté, et les réponses aux antédiluviennes questions sur les dégâts du progrès sont toujours attendues. Nous souhaitons avec ce texte, réarmer le débat sur l’IA en portant l’attention – un peu arbitrairement peut-être – sur quatre angles morts qui le polluent actuellement.
De manière générale, les médias commentent les percées technologiques (souvent très relatives) et le développement économique, au détriment des questions sociales et éthiques. Et lorsque celles-ci surgissent, elles puisent le plus souvent dans un répertoire de références populaires issues de la science-fiction.
C’est là un autre point aveugle dans le débat sur les risques de l’IA : la qualité de la négociation locale à propos de la légitimité de son déploiement et, le cas échéant, ses modes de diffusion au sein des entreprises.