Hebdomadaire Shaarli

Tous les liens d'un semaine sur une page.

Semaine 45 (November 4, 2024)

DialIA - Pour un dialogue social au service des bons usages de l’IA et d’une nouvelle étape de progrès social dans les entreprises et les administrations

Le projet DIALIA (“Dialogue IA”) est coordonnée par l’IRES, en partenariat avec quatre des organisations syndicales membres de l’Institut : la CFDT, la CFE-CGC, FO Cadres, l’UGICT CGT, Le projet est cofinancé par l’ANACT. Il vise à contribuer à déployer un cadre méthodologique partagé pour faire du développement du dialogue social technologique au travail et de la déclinaison de l’accord cadre européen de 2020 sur la numérisation du travail un levier opérationnel de la transformation numérique.

Les start-up zombies de l'IA + Google ajoute des publicités dans les réponses générées par l'IA | Cafétech
thumbnail

Il y a quelques mois, Inflection AI, Character AI et Adept AI faisaient partie des start-up les plus prometteuses de l’intelligence artificielle générative, levant en tout deux milliards de dollars. Elles ne sont aujourd’hui plus que l’ombre d’elles-mêmes, dépecées respectivement par Microsoft, Google et Amazon, devenant le symbole d’une nouvelle réalité. Elles ne disposaient plus des moyens financiers pour faire face aux immenses coûts d’entraînement et d’inférence des modèles d’IA. Et leurs investisseurs ont surtout cherché à limiter la casse avant qu’il ne soit trop tard.

Pour monétiser l’intelligence artificielle, Google n’a pas opté pour une approche révolutionnaire, comme le fait Perplexity, qui tente d’imposer le format novateur de questions sponsorisées. Le groupe a simplement repris les recettes déjà employées sur son moteur de recherche, qui lui permettent d’être le champion de la publicité en ligne. Concrètement, un carrousel de produits sponsorisés (les marques ou les distributeurs doivent payer pour y apparaître) s’affichera avant, après ou au sein de la réponse générée par Gemini, lorsqu’un internaute posera une question avec un “angle commercial”, c’est-à-dire qui peut se traduire par un achat en quelques clics.

L'exploitation des données personnelles par LinkedIn, Snapchat et Meta : un débat brûlant sur la vie privée et l'entraînement de l'IA à l'insu des utilisateurs | Siècle Digital
thumbnail

L’utilisation des données personnelles par les grandes plateformes de réseaux sociaux suscite un vif débat, à la lumière des récentes découvertes concernant LinkedIn, Snapchat et Meta. Ces entreprises exploitent les informations publiques de leurs utilisateurs pour former des modèles d’intelligence artificielle sans que ces derniers en soient pleinement conscients.

Meta retourne sa veste et autorise l'usage militaire de son IA par les États-Unis | Next
thumbnail

Vendredi, on apprenait que des chercheurs chinois liés à l'Armée populaire de libération avaient entrainé le modèle de langage Llama à des fins militaires, en violation des règles d'utilisation de Meta. Ce lundi, le président des affaires internationales de Meta révèle de son côté que des prestataires de l'armée états-unienne utilisent déjà Llama à des fins militaires, et qu'elle va autoriser les « Five Eyes » à faire de même.

L'entreprise a précisé qu'elle mettrait ses modèles d'IA Llama à la disposition des agences fédérales et qu'elle travaillait aussi avec des entreprises de défense telles que Lockheed Martin et Booz Allen, ainsi qu'avec des entreprises technologiques axées sur la défense, notamment Palantir et Anduril, et des prestataires d'agences gouvernementales, telles qu'Amazon Web Services, IBM, Oracle et Microsoft.

Comparateur d'ouverture de modèles d'IAG | PEReN
thumbnail

L’open source est une notion jusqu’à aujourd’hui mal définie dans le domaine de l’intelligence artificielle (IA). Certains modèles se présentent parfois comme open source au sens où leurs poids sont téléchargeables et réutilisables, sans pour autant que l’on puisse parler strictement d’ouverture : les modalités de réutilisation peuvent être restreintes, une marque commerciale peut être imposée et il est rare que tous les éléments soient fournis publiquement pour permettre de reproduire toutes les étapes de production du modèle.

Pour y voir plus clair, le PEReN a développé un outil de comparaison des degrés d’ouverture de certains modèles d’IA générative au regard de la définition inédite de l’OSI. Ce comparateur interactif vous permet ainsi de déterminer quels modèles sont compatibles avec vos cas d’usage ou votre philosophie en configurant les critères selon vos préférences ! Le nombre de modèles considérable ne permet pas l’exhaustivité. L’outil concerne donc une sélection de modèles répandus ou associés à des licences particulières.

Cartographie : quels sont les acteurs du marché de l’IA en 2024 ? | Blog du modérateur
thumbnail

Découvrez les grands acteurs du monde de l'IA, de l'analyse de données et de l'apprentissage automatique.

FirstMark, société de capital-risque basée à New York, a publié sa cartographie de l’écosystème des données, de l’analytique, de l’apprentissage automatique et de l’IA en 2024. Le travail accompli est d’une ampleur colossale : il regroupe plus de 2 000 logos (entreprises ou solutions), répartis dans 9 catégories et près de 100 sous-catégories. Tour d’horizon.

Comment l'IA a redynamisé le marché des infrastructures réseau | Forbes France
thumbnail

Le marché des infrastructures réseau connaît une dynamique et un intérêt sans précédent depuis des décennies, et l'intelligence artificielle promet de le rendre encore plus fascinant.

La transition de l’informatique à usage général à l’informatique accélérée nécessite de nouveaux logiciels et architectures de réseaux distribués pour connecter, déplacer et traiter les données à des vitesses fulgurantes, avec une très faible latence et presque aucune tolérance à la perte de données.

Vrais et faux risques de l’intelligence artificielle | Mais où va le web
thumbnail

Dans la cacophonie médiatique comme dans le fond des sujets, l’appréhension et la hiérarchisation des risques de l’intelligence artificielle vise souvent à côté, et les réponses aux antédiluviennes questions sur les dégâts du progrès sont toujours attendues. Nous souhaitons avec ce texte, réarmer le débat sur l’IA en portant l’attention – un peu arbitrairement peut-être – sur quatre angles morts qui le polluent actuellement.

De manière générale, les médias commentent les percées technologiques (souvent très relatives) et le développement économique, au détriment des questions sociales et éthiques. Et lorsque celles-ci surgissent, elles puisent le plus souvent dans un répertoire de références populaires issues de la science-fiction.

C’est là un autre point aveugle dans le débat sur les risques de l’IA : la qualité de la négociation locale à propos de la légitimité de son déploiement et, le cas échéant, ses modes de diffusion au sein des entreprises.

Making an image with generative AI uses as much energy as charging your phone | MIT Technology Review
thumbnail

This is the first time the carbon emissions caused by using an AI model for different tasks have been calculated.

In fact, generating an image using a powerful AI model takes as much energy as fully charging your smartphone, according to a new study by researchers at the AI startup Hugging Face and Carnegie Mellon University. However, they found that using an AI model to generate text is significantly less energy-intensive. Creating text 1,000 times only uses as much energy as 16% of a full smartphone charge.

Their work, which is yet to be peer reviewed, shows that while training massive AI models is incredibly energy intensive, it’s only one part of the puzzle. Most of their carbon footprint comes from their actual use.

La société est biaisée, et cela biaise les IA… voici des pistes de solutions pour une IA vertueuse et une société plus inclusive | The Conversation
thumbnail

Les données utilisées pour entraîner les IA reflètent les stéréotypes et les préjugés de la société, par exemple envers des groupes sous-représentés. Pour conserver la confidentialité de données sensibles, comme les données de santé, tout en garantissant qu’elles ne sont pas biaisées, il faut adapter les méthodes d’apprentissage.

Et si plutôt que refléter, voire exacerber une réalité actuelle dysfonctionnelle, l’IA pouvait être vertueuse et servir à corriger les biais dans la société, pour une société plus inclusive ? C’est ce que proposent les chercheurs avec une nouvelle approche : l’« apprentissage fédéré ».