3 liens privés
Deux ans après le lancement en France de l’agent conversationnel ChatGPT, le 30 novembre 2022, les élèves interrogés par La Croix disent y avoir largement recours pour faire leurs devoirs. Les professeurs, eux, cherchent encore la parade.
Après avoir analysé un échantillon de 8 795 posts LinkedIn publics de plus de 100 mots publiés entre janvier 2018 et octobre 2024, la start-up de détection de contenus générés par IA Originality a découvert que le nombre de messages longs susceptibles d'avoir été générés par IA avait explosé de 189 % dans les mois suivants le lancement de ChatGPT.
Elle estime aussi que 54 % des articles longs publiés en octobre 2024 en anglais sur LinkedIn ont probablement été générés par IA. De plus, les messages longs assistés par l'IA affichent une augmentation du nombre de mots de 107 % comparé à la période précédant le lancement de ChatGPT.
Plus une caractéristique culturelle est inhabituelle, moins elle a de chances d’être mise en évidence dans la représentation de la culture par un grand modèle de langage. L’IA saura-t-elle nous aider à identifier ce qui est nouveau ?
Le politiste Henry Farrell [...] estime que le risque de l’IA est qu’elle produise un monde de similitude, un monde unique et moyen : « Le problème avec les grands modèles est qu’ils ont tendance à sélectionner les caractéristiques qui sont communes et à s’opposer à celles qui sont contraires, originales, épurées, étranges. Avec leur généralisation, le risque est qu’ils fassent disparaître certains aspects de notre culture plus rapidement que d’autres ». Pour Farrell, ce constat contredit les grands discours sur la capacité d’innovation distribuée de l’IA. Au contraire, l’IA nous conduit à un aplatissement, effaçant les particularités qui nous distinguent.
IA qu’à m’expliquer profite des deux ans de ChatGPT pour recevoir pour ce 15e épisode le journaliste français Thibault Prévost, qui vient de publier Les prophètes de l’IA, pourquoi la Silicon Valley nous vend l’apocalypse (Ed. Lux). Il décortique la façon dont les Sam Altman et autres Elon Musk promeuvent l’intelligence artificielle de façon à anesthésier toute discussion politique sur l’idéologie qui se cache derrière leurs technologies. Un podcast qui s’intéresse également à la stagnation des entreprises qui développent ces grands modèles de langage.
In the late summer, Google surveyed 1,005 full-time knowledge workers, age 22-39, who are either in leadership roles or aspire to one. 93% of Gen Z respondents, age 22 - 27 and 79% of millennials (28 - 39), said they were using two or more AI tools a week — such as ChatGPT, DALL-E, Otter.ai, and other generative AI products.
Électricité, eau, minéraux, CO2 : on a tenté de mesurer l’empreinte écologique de ChatGPT | vert.eco
GPT la planète ? L’impact environnemental de l’incontournable outil d’intelligence artificielle est souvent insoupçonné et sous-estimé, et risque bien d’empirer dans les années à venir. Décryptage.
Malgré tous les efforts des expert·es du secteur, cette empreinte demeure très compliquée à estimer. La faute à des modèles qui évoluent très vite et rendent caduques les estimations, ainsi qu’à des effets volontairement sous-documentés par les entreprises du secteur.
En matière d’IA, il y a le modèle mais aussi ce qu’il permet de produire. Par exemple, il peut aider des entreprises fossiles à accélérer la production de secteurs polluants (le textile, la tech, etc.). Or, cet élément est quasiment impossible à prendre en compte lorsque l’on calcule l’impact de ces outils.
Dans la ville suisse de Lucerne, la chapelle Saint-Pierre a installé pendant deux mois un dispositif baptisé Deus in Machina en lieu et place de son confessionnal. Soit un « Jésus [virtuel] équipé d’une intelligence artificielle, capable de dialoguer dans 100 langues différentes ».
This paper examines ‘open’ AI. Claims about ‘open’ AI often lack precision, frequently eliding scrutiny of substantial industry concentration in large-scale AI development and deployment, and often incorrectly applying understandings of ‘open’ imported from free and open-source software to AI systems. At present, powerful actors are seeking to shape policy using claims that ‘open’ AI is either beneficial to innovation and democracy, on the one hand, or detrimental to safety, on the other. When policy is being shaped, definitions matter.
To add clarity to this debate, we examine the basis for claims of openness in AI, and offer a material analysis of what AI is and what ‘openness’ in AI can and cannot provide: examining models, data, labour, frameworks, and computational power. We highlight three main affordances of ‘open’ AI, namely transparency, reusability, and extensibility, and we observe that maximally ‘open’ AI allows some forms of oversight and experimentation on top of existing models. However, we find that openness alone does not perturb the concentration of power in AI. Just as many traditional open-source software projects were co-opted in various ways by large technology companies, we show how rhetoric around ‘open’ AI is frequently wielded in ways that exacerbate rather than reduce concentration of power in the AI sector.
Alors que le développement de l’intelligence artificielle progresse à une vitesse fulgurante, certains des hommes les plus riches du monde sont peut-être en train de décider du sort de l’humanité. Les prévisions en matière d’évolution de l’IA oscillent entre promesses évolutionnistes peu crédibles et anticipations dans lesquelles l’IA menacerait l’existence même de l’espèce humaine.
Cette thèse d’une possible extinction de notre espèce se déploie dans différents milieux, dont certains liés à l’industrie de l’IA, et incitent certains acteurs à en appeler à un ralentissement voire un arrêt total de son développement.
Tandis que l’idée du risque existentiel semble gagner du terrain rapidement, une grande publication publie presque chaque semaine un essai soutenant que le risque existentiel détourne l’attention des préjudices existants. Pendant ce temps, beaucoup plus d’argent et de personnes sont discrètement consacrés à rendre les systèmes d’IA plus puissants qu’à les rendre plus sûrs ou moins biaisés.
De la même manière que les logiciels ont « mangé le monde« , il faut s’attendre à ce que l’IA présente une dynamique similaire de « winner-takes-all » qui conduira à des concentrations de richesse et de pouvoir encore plus importantes.
Le chercheur et philosophe Luciano Floridi formule l’hypothèse suivante : les précédentes explosions de bulles technologiques signalent que la hype actuelle en provoquera une nouvelle.
« Les avancées rapides dans le domaine de l’IA, en particulier dans l’apprentissage automatique, l’apprentissage profond et les modèles de langage (ou, pour être plus précis, les modèles fondamentaux), ont suscité un engouement, des investissements et une attention médiatique croissants, se renforçant mutuellement et rappelant les bulles technologiques précédentes. »
Depuis l'émergence des modèles d'IA générative, les besoins en énergie des principaux constructeurs ont explosé, au point que Microsoft, Google puis Amazon aient successivement annoncé se tourner vers le nucléaire pour y répondre. Mais concrètement, quels sont les effets de l'intelligence artificielle sur le climat ? Dans quelle mesure ces technologies aident-elles à lutter contre le dérèglement climatique ? Ont-elles plutôt tendance à le renforcer ? Next en discute avec le sociologue Clément Marquet et l'informaticienne Anne-Laure Ligozat.
Suite et fin de la série consacrée à la conférence de Mélanie Mitchell sur l’avenir de l’intelligence artificielle.
Suite et fin de la transcription de la seconde partie dédiée au fonctionnement des IA.
Suite de la série consacrée à la conférence de Mélanie Mitchell sur l’avenir de l’intelligence artificielle.
Suite et fin de la transcription de la première partie dédiée à l'histoire de l'IA.
Pour introduire à l’IA, j’ai conseillé la lecture d’Intelligence artificielle. Triomphes et déceptions de la chercheuse et spécialiste Melanie Mitchell. Elle a donné récemment une conférence The Future of Artificial Intelligence qui intègre la question des IA génératives. Cette conférence est vraiment bien faite, elle couvre l’histoire de l’IA jusqu’à aujourd’hui, donne juste ce qu’il faut d’explication technique et aborde des problèmes cruciaux. Mais elle est en anglais, ce qui peut être un obstacle pour un public déjà non spécialiste de l’IA et de plus francophone. J’ai projeté d’en faire une adaptation écrite et demandé son accord à Melanie Mitchell. Ce qu’elle a fait immédiatement et je l’en remercie vivement.
Alors que l’intelligence artificielle accélère la propagation de fausses images, les cours d’histoire se doivent d’intégrer une formation à l’histoire numérique. Explications avec le projet VIRAPIC.
En constituant une base de référencement des photographies virales, détournées, décontextualisées ou inventées autour d’évènement historiques, le projet VIRAPIC permettra d’accéder rapidement à un contenu historique solide et critique sur les images que les élèves, enseignants ou éditeurs souhaitent publier en ligne ou utiliser en cours.
Les images générées par intelligence artificielle (IA), à la frontière entre le réel et le virtuel, brouillent les lignes légales en matière de pédocriminalité. En France l’alerte est lancée par la Fondation pour l’enfance pour qui « beaucoup de ses photos et vidéos montrant des mineurs agressés et maltraités sont si réaliste qu’il est presque impossible de les distinguer d’images de vrais enfants. »
Si la modération des IA comme Chat GPT, DALL-E, Midjourney empêche en principe la création de contenus inappropriés par leurs conditions d’utilisation, les garde-fous techniques restent limités. Les modèles d’IA génératives en sources ouvertes, tels que Stable Diffusion, offrent peu de contrôle sur les requêtes des utilisateurs, laissant libre cours à des usages détournés.
Vera se comporte comme un chatbot (bot conversationnel) classique, similaire à celui de ChatGPT, mais dont la spécificité est de s'abreuver, en temps réel, aux contenus de plus de 300 médias fiables pour générer une réponse documentée, sourcée et impartiale. Elle s'appuie sur les ressources de plus de 100 équipes et collectifs reconnus, signataires du code de l’International Fact-Checking Network (IFCN) ou membres de l’European Fact-Checking Standards Network (EFCSN), parmi lesquelles AFP Factuel, Snopes, Correctiv, Les Surligneurs ou encore Conspiracy Watch.
Seul le temps pourra donc confirmer ou infirmer le caractère anthropologiquement révolutionnaire de l’IA. Une chose est sûre cependant : l’organisation sociale dont émane l’intelligence artificielle actuellement dominante, celle que l’artiste et essayiste James Bridle nomme « corporate AI », n’a strictement rien de révolutionnaire, tant elle repose sur une « industrie extractive » qui exploite violemment les ressources naturelles et la main-d’œuvre bon marché. Les sources d’informations sur la réalité de ce système ne manquent plus et se multiplient. Les conditions de production de l’IA interrogent donc notre rapport collectif à l’altérité humaine et non-humaine et font de l’intelligence artificielle un enjeu moral autant que politique, technique et économique. C’est cet enjeu moral que je voudrais détailler ici en développant l’idée que l’IA dominante telle qu’elle est faite est un dispositif rendu possible par notre « froideur bourgeoise », pour reprendre le concept du philosophe allemand Théodore W. Adorno.
De la même façon que la mise à mort des animaux d’élevage se fait dans des abattoirs situés en périphérie des villes, c’est-à-dire à l’abri des regards, nous ne sommes jamais confronté·es en personne aux maltraitances et aux destructions qu’occasionne l’industrie de l’IA. Loin des yeux, loin du cœur, donc. Cette distanciation morale est d’ailleurs renforcée par le mirage d’immatérialité qui auréole les systèmes d’intelligence artificielle.