Hebdomadaire Shaarli
Semaine 42 (October 14, 2024)

Dan McQuillan est maître de conférence au département d’informatique de l’université Goldsmiths de Londres. Il est l’auteur de "Resisting AI, an anti-fascist approach to artificial intelligence" (Résister à l’IA, une approche anti-fasciste de l’IA, Bristol University Press, 2022, non traduit).
“L’IA est utilisée comme une forme de “Stratégie du choc“, dans laquelle le sentiment d’urgence généré par une technologie censée transformer le monde est utilisé comme une opportunité pour transformer les systèmes sociaux sans débat démocratique.” Quand l’IA est convoquée pour transformer l’hôpital et l’école, c’est une diversion qui vise à nous masquer leur effondrement sous les coups d’un désinvestissement massif. Or, l’IA ne comprend ni la médecine ni l’éducation. La seule chose que les grands modèles d’IA font très bien, c’est de transférer le contrôle aux grandes entreprises, et ce alors qu’aucun autre acteur n’a les moyens ou la puissance de traiter les données qu’elles savent traiter.

La création de Nightshade est révélatrice de l’inquiétude de nombre d’artistes et de créateurs de contenu face à la montée en puissance des IA génératives qui s’entraînent librement sur leurs œuvres. D’autant plus que, comme l’expliquent les chercheurs, « peu d’outils peuvent empêcher que leur contenu soit introduit dans un modèle d’IA générative contre leur volonté. Les listes d’exclusion ont été ignorées par les entraîneurs d’IA dans le passé et peuvent être facilement ignorées sans aucune conséquence ».
C’est pourquoi ils souhaitent mettre fin à cette « asymétrie de pouvoir » en incitant les fournisseurs d’IA générative à n’exploiter que les contenus non protégés par des droits d’auteur sous peine de voir leurs modèles d’apprentissage empoisonnés par Nightshade.

Discover how actionable AI empowers systems to understand human inputs and take proactive actions based on context and learned behaviors.
Think of LAMs as intelligent assistants who not only understand your requests but also take initiative to fulfill them. This unique ability to combine language understanding with autonomous action holds immense potential for transforming various aspects of our lives.

Why is it that so many companies that rely on monetizing the data of their users seem to be extremely hot on AI? If you ask Signal president Meredith Whittaker (and I did), she’ll tell you it’s simply because “AI is a surveillance technology.”
“It requires the surveillance business model; it’s an exacerbation of what we’ve seen since the late ’90s and the development of surveillance advertising. AI is a way, I think, to entrench and expand the surveillance business model,” she said.

Rumman Chowdhury, Timnit Gebru, Safiya Noble, Seeta Peña Gangadharan, and Joy Buolamwini open up about their artificial intelligence fears. Today the risks of artificial intelligence are clear — but the warning signs have been there all along.

Dans une tribune publiée par le magazine Time, l’historien superstar Yuval Noah Harari craint que, grâce à leur maîtrise du langage, « les IA puissent nouer des relations intimes avec les gens et utiliser ce pouvoir pour changer leurs opinions et leurs visions du monde ». De quoi entrevoir, selon lui, « la fin potentielle de l'histoire humaine ».

Dans son article "AI Is a Language Microwave", l’auteur nous propose une analogie intéressante : l’IA générative est comme un four à micro-ondes, un ersatz de four traditionnel, facile à utiliser et très pratique, car il peut nous faire gagner du temps si l’on accepte de faire des concessions sur la qualité de cuisson (il ne fait que réchauffer, impossible de faire un grilled cheese sandwich). Une comparaison très judicieuse qui nous fait relativiser la pertinence des chatbots actuellement disponibles pour des marques et organisations qui ne peuvent se permettre de faire des concessions sur la qualité des contenus ou la proximité des échanges. [...] Non, l’IA générative n’est ni une solution miracle, ni une fatalité, c’est un outil informatique dont il faut apprendre à se servir correctement pour ne pas trahir les valeurs de votre marque ou dégrader l’expérience client.
De ces 3 jours à Biarritz, je retiens une certaine défiance des personnes avec lesquelles j’ai pu discuter vis-à-vis des promesses sur-réalistes des éditeurs qui essayent de nous faire croire que l’IA généraliste va résoudre tous nos problèmes. Oui, les marques et organisations doivent faire face à de nombreux défis, elles en sont conscientes, mais qui ne sont pas insurmontables, et qui vont nécessités d’autres outils et façons de travailler. L’IA doit être considérée comme ce qu’elle est : un outil informatique permettant d’améliorer la qualité et la réactivité, pas de se substituer à des professionnels qui ont, je le rappelle, une connaissance précieuse de leur métier et de leur secteur.

En raison des besoins en calcul informatique de l’intelligence artificielle, le groupe a vu ses émissions de gaz à effet de serre augmenter de 13 % en un an et de 48 % en cinq ans. Celles-ci s’élèvent à 14,3 millions de tonnes équivalent CO2. La cause de cette flambée, qui va à rebours des objectifs climatiques du groupe américain ? L’explosion de l’intelligence artificielle (IA). Comme pour Microsoft, qui avait dû annoncer, mi-mai, un bond similaire de ses émissions, de 30 % en un an.

L’intelligence artificielle est appelée à s’immiscer dans la majeure partie de nos interactions numériques. Avec sa capacité à produire instantanément un « baratin » plausible adapté aux préférences de chacun, quels sont les risques que l’intelligence fausse nos interactions sociales, voire mine nos démocraties ?
Avec une capacité à construire des textes, des images, des vidéos – bref des réalités alternatives – l'IA ne va pas seulement développer des univers parallèles, elle va façonner le réel. En effet, les humains sont des êtres qui imaginent le monde avant de le vivre. Qui contrôle les imaginaires, oriente les humains.
Dans cette perspective, les IA et ceux qui les contrôlent sont en passe d’affecter de façon majeure la formation de l’opinion, et donc d’orienter la volonté des peuples en construisant des narrations massivement diffusées.

L’utilisation de l’intelligence artificielle par l’administration est connue de 46 % des Français et les trois quarts d’entre eux se disent préoccupés par cet usage, selon l’enquête Acteurs publics/EY pour l’Observatoire des politiques publiques réalisée par l’Ifop.
Classée 6e mondiale selon l’indice de préparation des administrations à l’IA en 2023 (étude Oxford Insights), la France se distingue par son adoption proactive de l’IA pour transformer ses services. Dans son rapport “IA et action publique” publié en 2022, le Conseil d’État avait déjà répertorié des centaines de cas d’usage où l’IA améliore les opérations, les prises de décision et les relations aux citoyens. Depuis, le nombre des applications IA a considérablement augmenté et s’est ancré dans les pratiques. Nous observons également que les projets IA améliorent indirectement de nombreux autres aspects du fonctionnement des administrations : approches plus agiles, itératives et collaboratives, harmonisation des pratiques ou encore digitalisation de fonctions traditionnellement moins digitales.
The popularisation of artificial intelligence (AI) has given rise to imaginaries that invite alienation and mystification. At a time when these technologies seem to be consolidating, it is pertinent to map their connections with human activities and more than human territories. What set of extractions, agencies and resources allow us to converse online with a text-generating tool or to obtain images in a matter of seconds?

Les marques technologiques intègrent de plus en plus l'IA dans leurs gadgets, même si cette tendance soulève des questions quant à son utilité réelle. Logitech, par exemple, a récemment annoncé sa souris "IA", qui présente principalement un bouton supplémentaire pour lancer une fonctionnalité de génération de messages. Cependant, cette innovation semble minime par rapport aux précédents modèles de souris de la même marque. De même, Nothing propose une intégration de ChatGPT dans ses écouteurs, tandis que Microsoft a ajouté un bouton "Copilot" sur ses claviers, bien que la pertinence de ces ajouts soit discutable.
Artificial intelligence had its breakout year in 2023, with large language models (LLMs) and text-to-image generators capturing the attention and imagination of technologists and investors alike.

La technologie derrière ChatGPT, Dall-E et autres n’est pas révolutionnaire, elle est spectaculaire. C’est très différent. Et, comme souvent, le spectaculaire attire une attention démesurée du grand public par rapport aux capacités réelles de la technologie. C’est ce qu’on appelle « une bulle ». Et une bulle, ça finit toujours par imploser.

Que signifient AGI (intelligence artificielle générale) ? Frontier AI ? modèle de fondation ? general purpose AI ? Tentatives de définition.

Si vous ne deviez lire qu’un seul livre traitant des intelligences artificielles, ce devrait sans doute être le "Contre-Atlas de l’Intelligence Artificielle" de la chercheuse australienne Kate Crawford. Cette enquête sur l’industrie de l’IA, très accessible même si vous n’êtes pas féru d’informatique, montre à quel point au-delà de la couche de marketing qui tente de rendre "magique" cette technologie, se jouent de nombreux rapports de force et de domination. Elle permet d’entamer une réflexion critique des algorithmes.

Tech CEOs want us to believe that generative AI will benefit humanity. They are kidding themselves.
Why call the errors “hallucinations” at all? Why not algorithmic junk? Or glitches? Well, hallucination refers to the mysterious capacity of the human brain to perceive phenomena that are not present, at least not in conventional, materialist terms. By appropriating a word commonly used in psychology, psychedelics and various forms of mysticism, AI’s boosters, while acknowledging the fallibility of their machines, are simultaneously feeding the sector’s most cherished mythology: that by building these large language models, and training them on everything that we humans have written, said and represented visually, they are in the process of birthing an animate intelligence on the cusp of sparking an evolutionary leap for our species.

Depuis 2022, les intelligences artificielles génératives s’imposent à la planète numérique. En animant les unes des journaux et les débats en ligne, ces fantasmes dystopiques masquent la leçon la plus spectaculaire que nous donne l’IA : notre culture est profondément inégalitaire et structurée autour de représentations biaisées, construites par l’histoire et les dominations. Si les IA génératives d’images traduisent et amplifient ces discriminations sociales, c’est principalement à cause des préjugés qui structurent les données d’entrainement des algorithmes. Mais l’inégalité se situe aussi dans l’usage de ces technologies en apparence élémentaire.

Une note de veille et de ressources sur les IA génératives, alors que l'excitation post-ChatGPT est encore bien vive.
Souhaitant partager les travaux et débats conduits lors de l’évènement de novembre 2023, la CNIL publie aujourd’hui le cahier air2023 « IA et libre arbitre : sommes-nous des moutons numériques ? », qui reprend les grands axes de l’évènement :
- L’IA au quotidien : comment faire pour que l’intelligence artificielle soit au service de nos vies ?
- L’art de l’artifice : comment mettre l’IA au service de la créativité ?
- L’IA et les mutations au travail : comment l’IA peut-elle être mise au service du marché de l’emploi, des entreprises et des travailleurs ?
Ce cahier s’adresse à tous, qu’il s’agisse du grand public – premier concerné par les transformations apportées par l’IA, des professionnels mettant en place des solutions innovantes, des chercheurs, ou encore des pouvoirs publics.

L’intelligence artificielle (IA) est-elle davantage un remède qu’un poison climatique ? Les géants de la tech, de Google à Microsoft, le clament haut et fort : les apports de ces technologies pour décarboner les économies et s’adapter au réchauffement seront à terme majeurs. A l’inverse, nombre d’experts préviennent que ces gains restent hypothétiques. L’empreinte carbone et la consommation électrique de services comme ChatGPT, d’ores et déjà importantes, risquent de devenir colossales. Ils appellent à la mesure face à une solution « utile » mais pas « miracle ».

Selon OpenAI, son chatbot peut désormais tenir des discussions fluides à l’oral et « lire » les émotions de ses utilisateurs. Une innovation qui intervient alors que l’usage de l’intelligence artificielle générative à des fins thérapeutiques se répand, soulevant des interrogations chez les professionnels de santé.

« Les entretiens de l’IA ». L’essayiste, activiste et auteur Cory Doctorow observe que « beaucoup d’investissements affluent chez les fabricants de modèles d’IA qui, souvent, perdent de l’argent ».
Selon Doctorow, l’IA est une bulle technologique en voie d’éclatement en raison du décalage existant entre les coûts engendrés et les revenus estimés. Cet entretien se réfère à une autre chronique de 2023 rédigée par l’essayiste américain : https://locusmag.com/2023/12/commentary-cory-doctorow-what-kind-of-bubble-is-ai/. Cory Doctorow précisait alors que dans le domaine de la tech, deux types de bulles coexistent : celles qui ne laissent place qu’aux dérives sociales, à la spéculation et à l’accumulation des richesses entre une poignée d’acteurs, et celles qui parviennent à faire émerger des dynamiques positives de long terme (partage de connaissances, création d’écosystèmes, etc.).

Les centres de données, ces infrastructures essentielles au fonctionnement de l’ère numérique, sont au cœur d’une controverse majeure. Selon une analyse récente, entre 2020 et 2022, les émissions de gaz à effet de serre des centres de données appartenant à des géants de la technologie comme Google, Microsoft, Meta et Apple étaient environ 662% plus élevées que ce qu’ils ont déclaré officiellement. Cette révélation soulève des questions cruciales sur la transparence et la responsabilité environnementale de ces entreprises.

L’intelligence artificielle (IA) est en passe de devenir la « technologie clé de l’avenir ». Mais qu’entend-on exactement par « IA » et comment affecte-t-elle notre quotidien ?

Avec « En attendant les robots », le sociologue Antonio A. Casilli s’attaque à l’un des principaux mythes des sociétés occidentales contemporaines : le développement sans frein de la technologie va conduire à la disparition du travail ; les humains sont condamnés à être remplacés par des « intelligences artificielles ». Or, en se penchant sur l’arrière-cuisine du secteur numérique, Casilli montre à quel point ces intelligences dites artificielles sont en réalité « largement faites à la main », par une armée de réserve de l’industrie numérique composée de travailleurs et travailleuses précaires qui se tuent à la microtâche.

Tant la figure de l’algorithme que celle de l’intelligence artificielle (IA) bénéficient d’une popularité sans pareille dans les médias. Cet engouement est d’autant plus surprenant en regard de la technicité de ce thème. Malheureusement, ce traitement médiatique relègue souvent l’analyse du sujet à des considérations techniques au détriment de ses dimensions sociales. Pourtant, si ces artefacts informatiques étranges méritent bien d’être questionnés au sein de l’espace public, c’est pour l’influence qu’ils peuvent exercer aujourd’hui sur nos modes de vie et nos opportunités de faire société. Lorsque l’on parle à la fois d’influence et d’IA, c’est la thématique des « biais algorithmiques » qui fait généralement les gros titres. À travers cet article, nous allons essayer d’insérer un peu de nuance dans ce débat sans pour autant négliger certaines technicités.

The AI tools provided by companies like Palantir and Clearview raise questions about when and how invasive tech should be used in wartime.
“Ukraine is a living laboratory in which some of these AI-enabled systems can reach maturity through live experiments and constant, quick reiteration,” says Jorritt Kaminga, the director of global policy at RAIN, a research firm that specializes in defense AI. Yet much of the new power will reside in the hands of private companies, not governments accountable to their people.
“This is the first time ever, in a war, that most of the critical technologies are not coming from federally funded research labs but commercial technologies off the shelf,” says Steve Blank, a tech veteran and co-founder of the Gordian Knot Center for National Security Innovation at Stanford University. “And there’s a marketplace for this stuff. So the genie’s out of the bottle.”

Four in five (79%) online teenagers aged 13-17 now use generative AI tools and services, with a significant minority of younger children aged 7-12 also adopting the technology (40%).
Adult internet users aged 16 and above are, on average, comparatively more reluctant users of generative AI (31%). Among those who have never used this technology (69%), nearly one in four have no idea what it is (24%).
Snapchat My AI - which became freely available to all Snap users in April 2023 - is the most popular generative AI tool among children and teens, used by half (51%) of online 7–17-year-olds. Online teenage girls are its most avid users (75%).
ChatGPT is the most widely used generative AI service among internet users aged 16 and above (23%). Among online youngsters aged 7-17, boys are keener users of ChatGPT than girls (34% versus 14%).

Voici un mini MOOC pour vous former rapidement à l’IA générative dans votre quotidien. Il s’agira de comprendre comment elle transforme notre vie de tous les jours, nos métiers et nos compétences.
À la fin de ce cours, vous saurez :
- Analyser quand l’IA générative apporte de la valeur dans notre vie, dans l’entreprise et dans les métiers et quels sont les risques
- Utiliser des outils d’IA générative (synthétiser, créer, faire es visuels, des rapports, de la veille, etc) pour vous aider dans votre travail quotidien
- Prendre conscience de cas d’usage en RH, industrie, Management d’entreprises qui ont réussi à intégrer l’IA générative pour transformer leurs pratiques (plus de 30 interviews)
- Découvrir les pratiques d’IA génératives d’entreprises en Inde et aux États Unis grâce aux interviews de nos Learning Expédition à Mumbai, Boston et World of IA à Cannes

L’IA est en train de prendre sa place dans les logiciels que nous utilisons tous les jours. Après plusieurs mois de test, Google, Adobe et Microsoft ont annoncé la fin de la période d’essai gratuite. Pour continuer à profiter de leur intelligence artificielle respective, il va falloir payer.

Artificial intelligence continues to be fed racist and sexist training materials and then distributed around the world.
AI systems are often trained on gargantuan data sets, usually scraped from the web for cost-effectiveness and ease. But this means AI can inherit all the biases of the humans who design them, and any present in the data that feeds them. The end result mirrors society, with all the ugliness baked in.

La démocratisation de l’intelligence artificielle, via Midjourney, a facilité la diffusion d’une multitude de « photos d’époque » fictives. Des pseudo-images parfois difficiles à identifier et qui ont déjà servi à justifier des discours politiques.

Avec la sortie de GPT-4, la ferveur médiatique autour des IA génératives atteint des sommets. Présentés comme la solution miracle à tous nos problèmes, les modèles génératifs nourrissent tous les fantasmes des techno-utopistes et "experts en IA" de Twitter. Pourtant ils ne résolvent en rien les problèmes des entreprises (cloisonnement des données et connaissances, système d’information sclérosé, gigantesque dette numérique…) et risquent même d’aggraver l’infobésité ou la désinformation. Plutôt que de participer à l’hystérie collective, je préfère adopter une approche critique et poser une question essentielle : quel problème essaye-t-on de résoudre ?
Cela fait 15 ans que nous nous plaignons et cherchons à lutter contre l’infobésité, pourquoi se réjouir de l’avènement des IA génératives ? Est-ce que ça ne serait pas plus viable d’apprendre aux collaborateurs à envoyer moins d’emails et à reporter les pratiques de communication / collaboration sur des outils qui sont conçus pour ?

L'ONG AI Forensics révèle que les partis d'extrême droite ont utilisé l'IA pour propager leurs messages anti-immigration et anti-Europe pendant la campagne des européennes et des législatives.
Ces chercheurs indépendants ont analysé les contenus publiés en ligne par 38 partis et coalitions en France : textes, images, vidéos… Et leur constat, c'est que l'IA, bien qu'encore peu utilisée par les candidats dans leur ensemble, est principalement exploitée par l'extrême droite. L'impact de ces images sur les votes reste difficile à mesurer. Mais les chercheurs déplorent que les personnes voyant passer ces contenus ne semblent pas réaliser qu'ils ont été générés par l'IA.

Tagaday, 1ère plateforme de veille médias, publie la deuxième édition de son Observatoire du traitement de l’intelligence artificielle dans les médias en France. Tagaday a mesuré la visibilité médiatique de l'IA et de ses grands secteurs sur la TV/radio, presse française et sites du web éditorial.
Une couverture médiatique en progression de 257% en 24 mois (2022-2024).
Avec 78% de part de voix en 2023 et 70% en 2024, ChatGPT est de loin l’intelligence artificielle la plus visible dans les médias.

Imaginons que dans un futur plus ou moins proche, il nous sera impossible de différencier le contenu créé par un humain du contenu créé par une IA. Dans les lectures, les écoutes musicales, les séries, les films, les photographies et tous les contenus pouvant être numériques il y aura un mélange entre ce qui est conçu humainement et par les IA.
Mais en attendant cela, j’imagine un monde numérique où les services, les médias, les sites Internet présenteront des options pour afficher ou non le contenu généré par IA et ainsi proposer aux utilisateurs, les différentes versions. Cela existe déjà sur les plateformes de vente d’images en ligne pour faire le tri entre les images générées et les images non générées.
I’m beginning to suspect that one of the most common misconceptions about LLMs such as ChatGPT involves how “training” works. A common complaint I see about these tools is that people don’t want to even try them out because they don’t want to contribute to their training data. This is by no means an irrational position to take, but it does often correspond to an incorrect mental model about how these tools work.
Short version: ChatGPT and other similar tools do not directly learn from and memorize everything that you say to them.

Les algorithmes sont pleins de biais, notamment sociaux, plus ou moins inquiétants. Les cas de biais algorithmiques aux effets inquiétants sur la société se multiplient. Et malgré la conscience croissante du problème, la multiplication de systèmes dits d’« intelligence artificielle » (IA) ne montre pas le moindre signe de ralentissement. Quels sont les outils à disposition, dans ce cas, pour éviter que ces machines ne nuisent à différents segments de la population ? Et dans quelle mesure fonctionnent-ils ? Qu’implique le fait de vouloir les corriger ?
There are many use cases for generative AI, spanning a vast number of areas of domestic and work life. Looking through thousands of comments on sites such as Reddit and Quora, the author’s team found that the use of this technology is as wide-ranging as the problems we encounter in our lives. The 100 categories they identified can be divided into six top-level themes, which give an immediate sense of what generative AI is being used for: Technical Assistance & Troubleshooting (23%), Content Creation & Editing (22%), Personal & Professional Support (17%), Learning & Education (15%), Creativity & Recreation (13%), Research, Analysis & Decision Making (10%).

Alors que les signes de l'éclatement de la bulle financière de l'IA s'amoncellent, le marché continue de dépenser comme jamais. Le signe d'un régime politique et économique délirant, dans lequel une poignée de monopoles s'exonère de la rationalité.

Les expressions se multiplient autour de l'intelligence artificielle. Mais qu’est-ce qu’une injection de prompt ? Et une attaque adverse ?
Quand on parle d’intelligence artificielle, en particulier générative, les nouvelles expressions sont nombreuses. Dans cette édition de notre lexique de l’IA, penchons-nous sur celles qui qualifient les attaques, déjà variées, qui visent à fragiliser les modèles d’apprentissage machine ou à contourner diverses restrictions implémentées par les constructeurs.

Quand on parle d'Intelligence artificielle on mobilise un terme qui qualifie un ensemble de technologies vaguement reliées, expliquent les chercheurs Arvind Narayanan et Sayash Kapoor dans leur nouveau livre, "AI Snake Oil". S’ils n’y arrivent pas toujours, les deux spécialistes nous aident à comprendre les défaillances de l’IA dans un livre qui mobilise la science pour qu’elle nous aide à éclairer le chemin critique qu’il reste à accomplir.

Prévenir les canicules, gérer les feux... Les masses de données manipulées par l’intelligence artificielle peuvent être utiles à la transition. Mais l'outil, ultrapolluant, n'est pas un remède miracle à la crise climatique.
« Dire que l’IA va tout résoudre est un discours technosolutionniste »
L'Autorité de la concurrence a décidé, le 8 février 2024, de s'autosaisir pour avis sur le fonctionnement concurrentiel du secteur de l'IA générative et de lancer une consultation publique, lui permettant de collecter le point de vue d’une quarantaine d’acteurs et d’une dizaine d’associations d’acteurs.
Cet avis se concentre plus particulièrement sur les stratégies mises en place par les grands acteurs du numérique visant à consolider leur pouvoir de marché à l’amont de la chaîne de valeur de l’IA générative, c’est-à-dire dans la conception, l’entraînement et la spécialisation des grands modèles de langage ou à tirer parti de ce pouvoir de marché pour se développer dans ce secteur en plein essor.
Elle n’aborde par conséquent qu’à titre incident les pratiques des acteurs à l’aval de la chaîne de valeur, c’est-à-dire au contact du consommateur final, et pas du tout les conséquences de l’IA pour le fonctionnement concurrentiel de l’ensemble de l’économie – question d’importance majeure et qui méritera des analyses ultérieures.

Si les IA et les logiques algorithmiques des grandes plateformes peuvent intervenir sur le débat public, les tensions qui traversent les processus de délibération ne naissent pas forcément du numérique. C’est ce que développe Salomé Frémineur, chargée de cours invitée en philosophie à l’ULB, l’UMONS et à l’Université de Namur qui étudie le rôle du langage dans la politique. Elle s’est notamment penchée sur les processus de délibération et sur ce qui pouvait fonder et animer des espaces de discussions publiques. Comment les IA (et les fantasmes qu’on peut nourrir sur elles) travaillent-elles des processus démocratiques ?

Arrêtée en 2019, la centrale nucléaire américaine de Three Mile Island en Pennsylvanie reprend du service. La raison ? Microsoft souhaite exploiter l'énergie produite par l'un des réacteurs – l'unité 1 – pour alimenter ses centres de données aux Etats-Unis.

Face à des gourous de la tech qui promettent une créativité et une productivité débordantes, au-delà des possibilités humaines, des chercheurs réunis en colloque avant l’été à Paris-8 ont rappelé que ces technologies numériques sont des dispositifs de calculs qui génèrent des contenus grâce à l’indexation de données. Ils n’apprennent pas et n’inventent pas. Petit tour d’horizon de ce que la recherche universitaire comprend de ces intelligences artificielles génératives.
Selon des tests réalisés pour l’autorité australienne de régulation des entreprises, la Securities and Investments Commission (ASIC), l’intelligence artificielle produit de moins bons résultats que les humains dans toutes les tâches de résumé. Au point que ces technologies pourraient créer du travail supplémentaire plutôt qu’en enlever.

L’écoconception des équipements et services numériques fait partie des leviers identifiés pour inverser la tendance en réduisant l’empreinte environnementale du numérique. Ce terme désigne « l’intégration des caractéristiques environnementales dans la conception du produit en vue d’améliorer la performance environnementale du produit tout au long de son cycle de vie ».
Le référentiel général de l’écoconception des services numériques est un document technique destiné aux experts et métiers du numérique souhaitant mettre en œuvre une démarche d’écoconception pour un service(sites, applications, IA, logiciels, API). Il a été élaboré par l’Arcep et l’Arcom, en collaboraiton avec l’ADEME, la DINUM, la CNIL et l’Inria.

Les progrès de l'intelligence artificielle éblouissent mais interrogent : la technologie ne passe-t-elle pas à côté de l'essentiel ? Dans les années 1970, des informaticiens hippies rêvaient de machines qui aident à développer notre intelligence « naturelle » et notre rapport au monde.
Chercher à développer une économie socialisée de l’intelligence artificielle, n’est-ce pas encore capituler face à la Silicon Valley ? Une IA « communiste » ou « socialiste » doit-elle se limiter à décider qui détient et contrôle les données ou à modifier les modèles et les infrastructures informatiques ? Ne pourrait-elle être porteuse de transformations plus profondes ?
Au lieu de renforcer une approche actuelle fondée notamment sur des objectifs de productivité, Morozov appelle à mobiliser « l’éducation et la culture, les bibliothèques et les universités », afin « d’ouvrir à tous, sans considération de classe, d’ethnicité ni de genre, l’accès à des institutions et des technologies qui favorisent l’autonomie créatrice et permettent de réaliser pleinement ses capacités. »

Trois chercheuses de la plateforme d'hébergement de projets d'IA Hugging Face, Sasha Luccioni, Bruna Trevelin et Margaret Mitchell ont rassemblé les connaissances disponibles actuellement à propos de l'impact de l'IA sur l'environnement. Elles constatent encore trop peu de transparence sur les besoins énergétiques de chaque application d'IA, elles parcourent l'ensemble des connaissances actuellement disponibles.
Selon de nombreux discours politiques et médiatiques, les promesses des intelligences artificielles (IA), s’ajoutant aux autres outils visant à automatiser le travail, n’annonceraient rien de moins que la fin du travail et la destruction de la plupart des emplois à moyen terme. Le sociologue du travail et des relations professionnelles Juan Sebastian Carbonell, qui développe ses recherches à partir du point de vue du monde du travail, bat en brèche dans "Le futur du travail" ce scénario. Les IA, les robots, les machines ne remplacent en effet jamais complètement les travailleur·euses. Mais leur introduction modifie en revanche profondément les conditions dans lesquelles leur activité s’exerce. Souvent dans le sens d’une dégradation.

Antoinette Rouvroy, philosophe et chercheuse en droit à l’Université de Namur, étudie de longue date les enjeux politiques et sociaux des algorithmes. Nous lui avons demandé de quelle manière les systèmes d’intelligences artificielles (IA) travaillaient et transformaient actuellement nos démocraties. Et le danger des algorithmes, ou plutôt du « capitalisme sous stéroïde algorithmique », ne semble pas tant celui de perturber l’information des citoyen·nes ou même les élections. Mais, en flattant notre hyperindividualisme, ces processus nous fragmentent et court-circuitent ce qui fonde même les démocraties : le besoin et le désir de commun. Un moment constitutionnel pourrait bien constituer l’antidote à cette colonisation des esprits par le numérique marchand.

C’est une nouvelle règle du jeu dans l’univers de la politique à l’ère numérique : un flot continu de contenus générés artificiellement caractérise désormais les campagnes électorales, avec l’essor d’outils gratuits, comme le clonage des voix ou l’édition d’images.
Au Pakistan, les dernières législatives [en 2018] témoignaient déjà d’une sophistication croissante des campagnes numériques : création de faux comptes, bombardements coordonnés de hashtags, applis mobiles personnalisées, organisation de grands événements à partir des réseaux sociaux… Et, en février 2024, le pays va vivre sa plus grande élection dématérialisée. Les partis politiques sont naturellement tentés de franchir un nouveau cap avec l’intelligence artificielle [IA].

Des chercheurs en bioéthique ont essayé de générer via Midjourney des photos de médecins noirs soignant des enfants blancs pauvres. Spoiler : c'est quasiment impossible, sauf à renforcer un autre stéréotype, celui du guérisseur traditionnel africain.

Le capital algorithmique : Accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle par Jonathan Durand Folco et Jonathan Martineau (2023)
Pour Jonathan Durand Folco et Jonathan Martineau, les changements techniques en cours sont tels que nous sommes entrés dans un nouveau stade du capitalisme : le capital algorithmique. En vingt thèses critiques, ils montrent comment la valorisation des données massives et le déploiement rapide de l’intelligence artificielle s’accompagnent de mutations socioéconomiques et politiques majeures. À la fois dynamique d’accumulation, rapport social et forme inédite de pouvoir basé sur les algorithmes, il s’agit d’une réalité multidimensionnelle qui bouleverse déjà profondément nos vies.

Alors que nous approchons du second anniversaire du lancement de chatGPT et que le marché est toujours dans l’expectative du lancement de GPT-5, tous les regards sont tournés vers OpenAI, la nouvelle coqueluche des médias et des experts en NTIC. La sortie récente d’un modèle génératif capable de raisonner ouvre de nombreuses possibilités que seules…
Le terme « chatbot » désigne maintenant les IA de nouvelle génération, celles qui proposent une interface conversationnelle pour interagir avec un grand modèle de langage par l’intermédiaire de commandes textuelles, les prompts.
En combinant les modèles de langage, les modèles de parole, les modèles de vision, les modèles de raisonnement et les modèles d’action, il serait possible de mettre au point des IA beaucoup plus versatiles, capables de rendre des services à plus forte valeur ajoutée que des réponses générées par un chatbot à commandes textuelles.

En matière d’intelligence artificielle, les « grands modèles de langage » comme ChatGPT sont si complexes que leurs créateurs peinent à prévoir leurs comportements. La psychologie peut les y aider.
Nous avons utilisé des outils de psychologie cognitive traditionnellement utilisés pour étudier la rationalité chez l’être humain afin d’analyser le raisonnement de différents LLM, parmi lesquels ChatGPT. Nos travaux ont permis de mettre en évidence l’existence d’erreurs de raisonnements chez ces intelligences artificielles. Explications.

Pour alimenter les modèles d’IA et valider les algorithmes, le travail humain est indispensable. Enquête à Madagascar sur les dessous de « l’IA à la française ».
Récemment une enquête du Time révélait que des travailleurs kényans payés moins de trois euros de l’heure étaient chargés de s’assurer que les données utilisées pour entraîner ChatGPT ne comportaient pas de contenu à caractère discriminatoire.
Rendre visible l’implication de ces travailleurs c’est questionner des chaînes de production mondialisées, bien connues dans l’industrie manufacturière, mais qui existent aussi dans le secteur du numérique. Ces travailleurs étant nécessaires au fonctionnement de nos infrastructures numériques, ils sont les rouages invisibles de nos vies numériques. C’est aussi rendre visible les conséquences de leur travail sur les modèles. Une partie des biais algorithmiques résident en effet dans le travail des données, pourtant encore largement invisibilisé par les entreprises. Une IA réellement éthique doit donc passer par une éthique du travail de l’IA.

The deal represents the first corporate agreement for multiple deployments of a single advanced reactor design in the United States.
Alameda, CA – October 14, 2024 – Kairos Power and Google have signed a Master Plant Development Agreement, creating a path to deploy a U.S. fleet of advanced nuclear power projects totaling 500 MW by 2035. Under the agreement, Kairos Power will develop, construct, and operate a series of advanced reactor plants and sell energy, ancillary services, and environmental attributes to Google under Power Purchase Agreements (PPAs). Plants will be sited in relevant service territories to supply clean electricity to Google data centers, with the first deployment by 2030 to support Google’s 24/7 carbon-free energy and net zero goals.

Après un Tribunal pour les Générations Futures organisé en novembre 2023 autour du rôle des cultures autochtones dans la préservation du vivant, Usbek & Rica et le Bureau Français de Taipei poursuivent leur exploration des grands enjeux d’avenir en interrogeant l’impact de l’intelligence artificielle sur la démocratie. Alors que plus de la moitié de la population mondiale est appelée aux urnes en 2024, l’intelligence artificielle peut-elle protéger la démocratie des maux qui la menacent, ou risque-t-elle de signer sa perte ? L’intelligence artificielle peut-elle inaugurer un nouvel âge de la démocratie, en facilitant l’expression et la représentation des citoyens dans l’élaboration des politiques publiques ?

Une initiative internationale menée par la startup française Pleias propose un corpus de textes du domaine public permettant d'entrainer les IA génératives tout en respectant les lois régissant les droits d'auteur : Common Corpus. Pierre-Carl Langlais, co-fondateur de Pleias, nous parle de son projet.

Dites adieu au moteur de recherche que vous utilisez quotidiennement : en 2024, les IA de Google vont vous résumer le Web, que vous le vouliez ou non. Une automutilation technique qui reflète le pouvoir absolu du monopole Google.
Ce que Google vient de faire est caractéristique du mode opératoire actuel de la Silicon Valley - annoncer en grande pompe un futur parfaitement hypothétique, une usine à gaz sur laquelle la presse et le public s'empresseront de poser des yeux humides d'émerveillement, pour dissimuler des modifications structurelles, violentes, de nos écosystèmes informationnels, et neutraliser autant que possible leur analyse dans le champ social.

Les grands modèles de langage réduisent le partage des connaissances publiques sur les plateformes de questions-réponses en ligne. L'impact de ChatGPT sur Stack Overflow en est le parfait exemple. Mais cette tendance représente un danger pour les modèles eux-mêmes : il y a moins de contenu valable pour former les LLM, qui finissent donc par s'auto-empoisonner. Une nouvelle étude lève le voile sur cette situation.

Alors que les travaux se multiplient pour réguler le domaine de l'intelligence artificielle, l'équipe du Centre de recherche sur les modèles de fondation de Stanford dévoile un index d'analyse de la transparence des modèles d'IA généralistes. Résultat de la toute première analyse : tout le monde peut (largement) mieux faire.
Selon une étude menée par Rishi Bommasani et plusieurs autres chercheurs du Center for Research on Foundation Models (CRFM) de l’Institute for Human-Centered Artificial Intelligence (HAI) de Stanford, ni Meta, ni Hugging Face, ni Open AI (qui contient pourtant le mot « open » dans son nom) ni Google n’explosent les scores en matière de transparence de leurs modèles de fondation. Selon les scientifiques, ils sont même de moins en moins transparents.

L’intelligence artificielle (IA) est aujourd’hui souvent considérée comme un des outils à utiliser pour résoudre les problèmes environnementaux. En particulier, elle pourrait permettre de réduire les émissions de gaz à effet de serre (GES) dans plusieurs secteurs comme l'agriculture ou les transports. Mais la mise en place et l’utilisation de solutions basées sur l'IA peuvent nécessiter beaucoup d’énergie et d’équipements, qui ont eux aussi un impact sur l’environnement. Alors comment évaluer les bénéfices nets complets de telles solutions d’IA sur l’environnement ?

Qu’est-ce qu’un neurone artificiel ? Et quelle différence entre une hallucination humaine et celle d’une machine ?
Au gré de nos articles sur l’intelligence artificielle, nous utilisons à loisir tout un vocabulaire qui, s’il est souvent tiré d’activités humaines, qualifie bien des éléments spécifiques au champ informatique. Après avoir décortiqué une partie des expressions génériques qui qualifient certains champs et sous-champs du domaine, intéressons-nous donc au fonctionnement plus précis des systèmes d’IA.

La question de la régulation de l’intelligence artificielle est majeure. Elle articule une variété de courants, des plus techno-optimistes, plaidant l’adaptation à un avenir déjà écrit, aux oppositions plus frontales aux technologies numériques et à la « civilisation industrielle » dans son ensemble. Entre les deux, on retrouve les approches régulationnistes, engageant à encadrer davantage le développement de l’IA dans un esprit de responsabilité. Un domaine en particulier est souvent mentionné dans ce champ : la « regulation by design » (RbD). Il s’agit en résumé, d’incorporer les régulations en vigueur à la conception des systèmes, ce qui ne va pas sans poser quelques questions.

Une nouvelle étude révèle que les hallucinations de grands modèles de langage (LLM) découlent de leurs structures mathématiques et logiques fondamentales. En augmentant la complexité et la capacité des modèles, il est possible de réduire la fréquence de ces hallucinations, mais il serait impossible de les éliminer complètement.

Pleine de promesses ou porteuse d’inquiétudes, l’Intelligence Artificielle (IA) est sur toutes les lèvres et ne cesse d’envahir les titres des journaux. Mais derrière les vagues de spéculation, elle incarne surtout le prolongement d’un capitalisme numérique qui pousse toujours plus loin l’exploitation écologique et humaine.

N’étant pas juriste, c’est avec prudence et humilité que je vous partage la réflexion suivante. Comment est-ce possible qu’on laisse encore des entreprises privées lancer ce qu’il faut bien appeler des expérimentations à grande échelle, sans dispositif de contrôle, sur des produits aussi potentiellement dangereux que des programmes d’intelligence artificielle comme ChatGPT ? Alors que de l’aveu même de nombreux chercheurs en pointe dans le domaine, « on ne sait pas encore pourquoi ça marche aussi bien ».

Class'Code IAI est un MOOC citoyen accessible à toutes et à tous de 7 à 107 ans pour se questionner, expérimenter et comprendre ce qu’est l’Intelligence Artificielle.
À la fin de ce cours, vous saurez :
- décrypter le discours autour de l'IA pour passer des idées reçues à des questions sur lesquelles s'appuyer pour comprendre,
- manipuler des programmes d'IA pour se faire une opinion par soi-même,
- partager une culture minimale sur le sujet, pour se familiariser avec le sujet au-delà des idées reçues,
- discuter le sujet, ses applications, son cadre avec des interlocuteurs variés pour contribuer à la construction des applications de l’IA

L'État de la situation sur les impacts sociétaux de l'intelligence artificielle et du numérique fait état des connaissances actuelles sur les impacts sociétaux de l'IA et du numérique, structurées autour des sept axes de recherche de l'Obvia : santé, éducation, travail et emploi, éthique et gouvernance, droit, arts et médias, et transition socio-écologique. Hypertrucages, désinformation, empreinte environnementale, droit d'auteur, évolution des conditions de travail, etc.
Le document recense les grandes questions de recherche soulevées par le déploiement progressif de ces nouvelles technologies, auxquelles viennent s'ajouter des cas d'usages et de pistes d'action. Il s'impose ainsi comme un outil complet et indispensable pour accompagner la prise de décision dans tous les secteurs bouleversés par ces changements.

La pensée de Félix Guattari permet d’éclairer les coûts cachés des IA génératives, qui s’appuient sur un extractivisme pillant les ressources naturelles et culturelles.
Quelle que soit leur utilité potentielle, la généralisation de ces systèmes semble donc aller de pair avec un épuisement des ressources naturelles, au détriment des besoins fondamentaux des citoyens et de l’avenir de nos écosystèmes communs.

Les systèmes sollicitant une intelligence artificielle (IA) consomment de l’énergie et des ressources pour fonctionner. Mais concevoir des IA qui consomment le moins possible, c’est prendre le risque de subir l’effet rebond : quand l’efficience d’une IA la rend moins coûteuse et plus facile à embarquer, son utilisation peut augmenter… et son impact environnemental avec ! Initiative du ministère de la Transition écologique et de la cohésion des territoires, l’AFNOR Spec 2314 énonce des méthodologies de calcul et des bonnes pratiques pour mesurer et réduire l’impact environnemental de l’IA, et pour communiquer avec des allégations justes et vérifiables.

Artificial intelligence (AI) has an environmental cost. Beginning with the extraction of raw materials and the manufacturing of AI infrastructure, and culminating in real-time interactions with users, every aspect of the AI lifecycle consumes natural resources – energy, water, and minerals – and releases greenhouse gases. The amount of energy needed to power AI now outpaces what renewable energy sources can provide, and the rapidly increasing usage of AI portends significant environmental consequences. The goal of this primer is to shed light on the environmental impacts of the full AI lifecycle, describing which kinds of impacts are at play when, and why they matter.

Dans ce cours, vous découvrirez ce que recouvre vraiment l'intelligence artificielle : ses enjeux, ses possibilités, son fonctionnement scientifique ainsi que ses sous-disciplines, comme le Machine Learning et le Deep Learning.

Vous vous souvenez ? En conclusion de notre dossier sur le recrutement automatisé, on évoquait la possibilité prochaine qu’à l’automatisation des recrutements répondent l’automatisation des candidatures. Eh bien nous y sommes, explique 404media en évoquant AIHawk, un assistant de recherche d’emploi déposé sur Github, qui permet de postuler à des emplois sur LinkedIn à grande échelle.

On ne peut pas comprendre le développement phénoménal des algorithmes aujourd’hui sans saisir les reconfigurations du capitalisme de ces 20 dernières années. C’est ce que montrent deux enseignant-chercheurs, Jonathan Martineau et Jonathan Durand Folco, respectivement à l’Université Concordia (Montréal) et à l’Université de Saint-Paul (Ottawa) dans "Le capital algorithmique".
Ce livre développe en 20 thèses de quoi réfléchir de manière puissante, critique et multidimensionnelle les logiques algorithmiques et les intelligences artificielles qui bouleversent nos vies actuellement, le plus souvent au profit du marché. Selon eux, les changements techniques, économiques, sociaux et politiques sont tels que nous sommes passés à une nouvelle phase du capitalisme. Celui-ci, devenu algorithmique, affecte de multiples sphères de la société. Dont le fonctionnement de nos démocraties.