Quotidien Shaarli
October 15, 2024
L'ONG AI Forensics révèle que les partis d'extrême droite ont utilisé l'IA pour propager leurs messages anti-immigration et anti-Europe pendant la campagne des européennes et des législatives.
Ces chercheurs indépendants ont analysé les contenus publiés en ligne par 38 partis et coalitions en France : textes, images, vidéos… Et leur constat, c'est que l'IA, bien qu'encore peu utilisée par les candidats dans leur ensemble, est principalement exploitée par l'extrême droite. L'impact de ces images sur les votes reste difficile à mesurer. Mais les chercheurs déplorent que les personnes voyant passer ces contenus ne semblent pas réaliser qu'ils ont été générés par l'IA.
Une initiative internationale menée par la startup française Pleias propose un corpus de textes du domaine public permettant d'entrainer les IA génératives tout en respectant les lois régissant les droits d'auteur : Common Corpus. Pierre-Carl Langlais, co-fondateur de Pleias, nous parle de son projet.
Dites adieu au moteur de recherche que vous utilisez quotidiennement : en 2024, les IA de Google vont vous résumer le Web, que vous le vouliez ou non. Une automutilation technique qui reflète le pouvoir absolu du monopole Google.
Ce que Google vient de faire est caractéristique du mode opératoire actuel de la Silicon Valley - annoncer en grande pompe un futur parfaitement hypothétique, une usine à gaz sur laquelle la presse et le public s'empresseront de poser des yeux humides d'émerveillement, pour dissimuler des modifications structurelles, violentes, de nos écosystèmes informationnels, et neutraliser autant que possible leur analyse dans le champ social.
I’m beginning to suspect that one of the most common misconceptions about LLMs such as ChatGPT involves how “training” works. A common complaint I see about these tools is that people don’t want to even try them out because they don’t want to contribute to their training data. This is by no means an irrational position to take, but it does often correspond to an incorrect mental model about how these tools work.
Short version: ChatGPT and other similar tools do not directly learn from and memorize everything that you say to them.
Les algorithmes sont pleins de biais, notamment sociaux, plus ou moins inquiétants. Les cas de biais algorithmiques aux effets inquiétants sur la société se multiplient. Et malgré la conscience croissante du problème, la multiplication de systèmes dits d’« intelligence artificielle » (IA) ne montre pas le moindre signe de ralentissement. Quels sont les outils à disposition, dans ce cas, pour éviter que ces machines ne nuisent à différents segments de la population ? Et dans quelle mesure fonctionnent-ils ? Qu’implique le fait de vouloir les corriger ?
There are many use cases for generative AI, spanning a vast number of areas of domestic and work life. Looking through thousands of comments on sites such as Reddit and Quora, the author’s team found that the use of this technology is as wide-ranging as the problems we encounter in our lives. The 100 categories they identified can be divided into six top-level themes, which give an immediate sense of what generative AI is being used for: Technical Assistance & Troubleshooting (23%), Content Creation & Editing (22%), Personal & Professional Support (17%), Learning & Education (15%), Creativity & Recreation (13%), Research, Analysis & Decision Making (10%).
Alors que les signes de l'éclatement de la bulle financière de l'IA s'amoncellent, le marché continue de dépenser comme jamais. Le signe d'un régime politique et économique délirant, dans lequel une poignée de monopoles s'exonère de la rationalité.
La technologie derrière ChatGPT, Dall-E et autres n’est pas révolutionnaire, elle est spectaculaire. C’est très différent. Et, comme souvent, le spectaculaire attire une attention démesurée du grand public par rapport aux capacités réelles de la technologie. C’est ce qu’on appelle « une bulle ». Et une bulle, ça finit toujours par imploser.
Que signifient AGI (intelligence artificielle générale) ? Frontier AI ? modèle de fondation ? general purpose AI ? Tentatives de définition.
Si vous ne deviez lire qu’un seul livre traitant des intelligences artificielles, ce devrait sans doute être le "Contre-Atlas de l’Intelligence Artificielle" de la chercheuse australienne Kate Crawford. Cette enquête sur l’industrie de l’IA, très accessible même si vous n’êtes pas féru d’informatique, montre à quel point au-delà de la couche de marketing qui tente de rendre "magique" cette technologie, se jouent de nombreux rapports de force et de domination. Elle permet d’entamer une réflexion critique des algorithmes.
Tech CEOs want us to believe that generative AI will benefit humanity. They are kidding themselves.
Why call the errors “hallucinations” at all? Why not algorithmic junk? Or glitches? Well, hallucination refers to the mysterious capacity of the human brain to perceive phenomena that are not present, at least not in conventional, materialist terms. By appropriating a word commonly used in psychology, psychedelics and various forms of mysticism, AI’s boosters, while acknowledging the fallibility of their machines, are simultaneously feeding the sector’s most cherished mythology: that by building these large language models, and training them on everything that we humans have written, said and represented visually, they are in the process of birthing an animate intelligence on the cusp of sparking an evolutionary leap for our species.
Pleine de promesses ou porteuse d’inquiétudes, l’Intelligence Artificielle (IA) est sur toutes les lèvres et ne cesse d’envahir les titres des journaux. Mais derrière les vagues de spéculation, elle incarne surtout le prolongement d’un capitalisme numérique qui pousse toujours plus loin l’exploitation écologique et humaine.
N’étant pas juriste, c’est avec prudence et humilité que je vous partage la réflexion suivante. Comment est-ce possible qu’on laisse encore des entreprises privées lancer ce qu’il faut bien appeler des expérimentations à grande échelle, sans dispositif de contrôle, sur des produits aussi potentiellement dangereux que des programmes d’intelligence artificielle comme ChatGPT ? Alors que de l’aveu même de nombreux chercheurs en pointe dans le domaine, « on ne sait pas encore pourquoi ça marche aussi bien ».
Arrêtée en 2019, la centrale nucléaire américaine de Three Mile Island en Pennsylvanie reprend du service. La raison ? Microsoft souhaite exploiter l'énergie produite par l'un des réacteurs – l'unité 1 – pour alimenter ses centres de données aux Etats-Unis.
Face à des gourous de la tech qui promettent une créativité et une productivité débordantes, au-delà des possibilités humaines, des chercheurs réunis en colloque avant l’été à Paris-8 ont rappelé que ces technologies numériques sont des dispositifs de calculs qui génèrent des contenus grâce à l’indexation de données. Ils n’apprennent pas et n’inventent pas. Petit tour d’horizon de ce que la recherche universitaire comprend de ces intelligences artificielles génératives.
Selon OpenAI, son chatbot peut désormais tenir des discussions fluides à l’oral et « lire » les émotions de ses utilisateurs. Une innovation qui intervient alors que l’usage de l’intelligence artificielle générative à des fins thérapeutiques se répand, soulevant des interrogations chez les professionnels de santé.
« Les entretiens de l’IA ». L’essayiste, activiste et auteur Cory Doctorow observe que « beaucoup d’investissements affluent chez les fabricants de modèles d’IA qui, souvent, perdent de l’argent ».
Selon Doctorow, l’IA est une bulle technologique en voie d’éclatement en raison du décalage existant entre les coûts engendrés et les revenus estimés. Cet entretien se réfère à une autre chronique de 2023 rédigée par l’essayiste américain : https://locusmag.com/2023/12/commentary-cory-doctorow-what-kind-of-bubble-is-ai/. Cory Doctorow précisait alors que dans le domaine de la tech, deux types de bulles coexistent : celles qui ne laissent place qu’aux dérives sociales, à la spéculation et à l’accumulation des richesses entre une poignée d’acteurs, et celles qui parviennent à faire émerger des dynamiques positives de long terme (partage de connaissances, création d’écosystèmes, etc.).
Les centres de données, ces infrastructures essentielles au fonctionnement de l’ère numérique, sont au cœur d’une controverse majeure. Selon une analyse récente, entre 2020 et 2022, les émissions de gaz à effet de serre des centres de données appartenant à des géants de la technologie comme Google, Microsoft, Meta et Apple étaient environ 662% plus élevées que ce qu’ils ont déclaré officiellement. Cette révélation soulève des questions cruciales sur la transparence et la responsabilité environnementale de ces entreprises.
L’intelligence artificielle (IA) est en passe de devenir la « technologie clé de l’avenir ». Mais qu’entend-on exactement par « IA » et comment affecte-t-elle notre quotidien ?
Avec « En attendant les robots », le sociologue Antonio A. Casilli s’attaque à l’un des principaux mythes des sociétés occidentales contemporaines : le développement sans frein de la technologie va conduire à la disparition du travail ; les humains sont condamnés à être remplacés par des « intelligences artificielles ». Or, en se penchant sur l’arrière-cuisine du secteur numérique, Casilli montre à quel point ces intelligences dites artificielles sont en réalité « largement faites à la main », par une armée de réserve de l’industrie numérique composée de travailleurs et travailleuses précaires qui se tuent à la microtâche.
On ne peut pas comprendre le développement phénoménal des algorithmes aujourd’hui sans saisir les reconfigurations du capitalisme de ces 20 dernières années. C’est ce que montrent deux enseignant-chercheurs, Jonathan Martineau et Jonathan Durand Folco, respectivement à l’Université Concordia (Montréal) et à l’Université de Saint-Paul (Ottawa) dans "Le capital algorithmique".
Ce livre développe en 20 thèses de quoi réfléchir de manière puissante, critique et multidimensionnelle les logiques algorithmiques et les intelligences artificielles qui bouleversent nos vies actuellement, le plus souvent au profit du marché. Selon eux, les changements techniques, économiques, sociaux et politiques sont tels que nous sommes passés à une nouvelle phase du capitalisme. Celui-ci, devenu algorithmique, affecte de multiples sphères de la société. Dont le fonctionnement de nos démocraties.
En raison des besoins en calcul informatique de l’intelligence artificielle, le groupe a vu ses émissions de gaz à effet de serre augmenter de 13 % en un an et de 48 % en cinq ans. Celles-ci s’élèvent à 14,3 millions de tonnes équivalent CO2. La cause de cette flambée, qui va à rebours des objectifs climatiques du groupe américain ? L’explosion de l’intelligence artificielle (IA). Comme pour Microsoft, qui avait dû annoncer, mi-mai, un bond similaire de ses émissions, de 30 % en un an.
Tagaday, 1ère plateforme de veille médias, publie la deuxième édition de son Observatoire du traitement de l’intelligence artificielle dans les médias en France. Tagaday a mesuré la visibilité médiatique de l'IA et de ses grands secteurs sur la TV/radio, presse française et sites du web éditorial.
Une couverture médiatique en progression de 257% en 24 mois (2022-2024).
Avec 78% de part de voix en 2023 et 70% en 2024, ChatGPT est de loin l’intelligence artificielle la plus visible dans les médias.
Imaginons que dans un futur plus ou moins proche, il nous sera impossible de différencier le contenu créé par un humain du contenu créé par une IA. Dans les lectures, les écoutes musicales, les séries, les films, les photographies et tous les contenus pouvant être numériques il y aura un mélange entre ce qui est conçu humainement et par les IA.
Mais en attendant cela, j’imagine un monde numérique où les services, les médias, les sites Internet présenteront des options pour afficher ou non le contenu généré par IA et ainsi proposer aux utilisateurs, les différentes versions. Cela existe déjà sur les plateformes de vente d’images en ligne pour faire le tri entre les images générées et les images non générées.
Les grands modèles de langage réduisent le partage des connaissances publiques sur les plateformes de questions-réponses en ligne. L'impact de ChatGPT sur Stack Overflow en est le parfait exemple. Mais cette tendance représente un danger pour les modèles eux-mêmes : il y a moins de contenu valable pour former les LLM, qui finissent donc par s'auto-empoisonner. Une nouvelle étude lève le voile sur cette situation.
The popularisation of artificial intelligence (AI) has given rise to imaginaries that invite alienation and mystification. At a time when these technologies seem to be consolidating, it is pertinent to map their connections with human activities and more than human territories. What set of extractions, agencies and resources allow us to converse online with a text-generating tool or to obtain images in a matter of seconds?
Les marques technologiques intègrent de plus en plus l'IA dans leurs gadgets, même si cette tendance soulève des questions quant à son utilité réelle. Logitech, par exemple, a récemment annoncé sa souris "IA", qui présente principalement un bouton supplémentaire pour lancer une fonctionnalité de génération de messages. Cependant, cette innovation semble minime par rapport aux précédents modèles de souris de la même marque. De même, Nothing propose une intégration de ChatGPT dans ses écouteurs, tandis que Microsoft a ajouté un bouton "Copilot" sur ses claviers, bien que la pertinence de ces ajouts soit discutable.
Artificial intelligence had its breakout year in 2023, with large language models (LLMs) and text-to-image generators capturing the attention and imagination of technologists and investors alike.
Les expressions se multiplient autour de l'intelligence artificielle. Mais qu’est-ce qu’une injection de prompt ? Et une attaque adverse ?
Quand on parle d’intelligence artificielle, en particulier générative, les nouvelles expressions sont nombreuses. Dans cette édition de notre lexique de l’IA, penchons-nous sur celles qui qualifient les attaques, déjà variées, qui visent à fragiliser les modèles d’apprentissage machine ou à contourner diverses restrictions implémentées par les constructeurs.
Quand on parle d'Intelligence artificielle on mobilise un terme qui qualifie un ensemble de technologies vaguement reliées, expliquent les chercheurs Arvind Narayanan et Sayash Kapoor dans leur nouveau livre, "AI Snake Oil". S’ils n’y arrivent pas toujours, les deux spécialistes nous aident à comprendre les défaillances de l’IA dans un livre qui mobilise la science pour qu’elle nous aide à éclairer le chemin critique qu’il reste à accomplir.
Prévenir les canicules, gérer les feux... Les masses de données manipulées par l’intelligence artificielle peuvent être utiles à la transition. Mais l'outil, ultrapolluant, n'est pas un remède miracle à la crise climatique.
« Dire que l’IA va tout résoudre est un discours technosolutionniste »
L'Autorité de la concurrence a décidé, le 8 février 2024, de s'autosaisir pour avis sur le fonctionnement concurrentiel du secteur de l'IA générative et de lancer une consultation publique, lui permettant de collecter le point de vue d’une quarantaine d’acteurs et d’une dizaine d’associations d’acteurs.
Cet avis se concentre plus particulièrement sur les stratégies mises en place par les grands acteurs du numérique visant à consolider leur pouvoir de marché à l’amont de la chaîne de valeur de l’IA générative, c’est-à-dire dans la conception, l’entraînement et la spécialisation des grands modèles de langage ou à tirer parti de ce pouvoir de marché pour se développer dans ce secteur en plein essor.
Elle n’aborde par conséquent qu’à titre incident les pratiques des acteurs à l’aval de la chaîne de valeur, c’est-à-dire au contact du consommateur final, et pas du tout les conséquences de l’IA pour le fonctionnement concurrentiel de l’ensemble de l’économie – question d’importance majeure et qui méritera des analyses ultérieures.
Si les IA et les logiques algorithmiques des grandes plateformes peuvent intervenir sur le débat public, les tensions qui traversent les processus de délibération ne naissent pas forcément du numérique. C’est ce que développe Salomé Frémineur, chargée de cours invitée en philosophie à l’ULB, l’UMONS et à l’Université de Namur qui étudie le rôle du langage dans la politique. Elle s’est notamment penchée sur les processus de délibération et sur ce qui pouvait fonder et animer des espaces de discussions publiques. Comment les IA (et les fantasmes qu’on peut nourrir sur elles) travaillent-elles des processus démocratiques ?
Class'Code IAI est un MOOC citoyen accessible à toutes et à tous de 7 à 107 ans pour se questionner, expérimenter et comprendre ce qu’est l’Intelligence Artificielle.
À la fin de ce cours, vous saurez :
- décrypter le discours autour de l'IA pour passer des idées reçues à des questions sur lesquelles s'appuyer pour comprendre,
- manipuler des programmes d'IA pour se faire une opinion par soi-même,
- partager une culture minimale sur le sujet, pour se familiariser avec le sujet au-delà des idées reçues,
- discuter le sujet, ses applications, son cadre avec des interlocuteurs variés pour contribuer à la construction des applications de l’IA
L'État de la situation sur les impacts sociétaux de l'intelligence artificielle et du numérique fait état des connaissances actuelles sur les impacts sociétaux de l'IA et du numérique, structurées autour des sept axes de recherche de l'Obvia : santé, éducation, travail et emploi, éthique et gouvernance, droit, arts et médias, et transition socio-écologique. Hypertrucages, désinformation, empreinte environnementale, droit d'auteur, évolution des conditions de travail, etc.
Le document recense les grandes questions de recherche soulevées par le déploiement progressif de ces nouvelles technologies, auxquelles viennent s'ajouter des cas d'usages et de pistes d'action. Il s'impose ainsi comme un outil complet et indispensable pour accompagner la prise de décision dans tous les secteurs bouleversés par ces changements.
La pensée de Félix Guattari permet d’éclairer les coûts cachés des IA génératives, qui s’appuient sur un extractivisme pillant les ressources naturelles et culturelles.
Quelle que soit leur utilité potentielle, la généralisation de ces systèmes semble donc aller de pair avec un épuisement des ressources naturelles, au détriment des besoins fondamentaux des citoyens et de l’avenir de nos écosystèmes communs.
Les systèmes sollicitant une intelligence artificielle (IA) consomment de l’énergie et des ressources pour fonctionner. Mais concevoir des IA qui consomment le moins possible, c’est prendre le risque de subir l’effet rebond : quand l’efficience d’une IA la rend moins coûteuse et plus facile à embarquer, son utilisation peut augmenter… et son impact environnemental avec ! Initiative du ministère de la Transition écologique et de la cohésion des territoires, l’AFNOR Spec 2314 énonce des méthodologies de calcul et des bonnes pratiques pour mesurer et réduire l’impact environnemental de l’IA, et pour communiquer avec des allégations justes et vérifiables.
Artificial intelligence (AI) has an environmental cost. Beginning with the extraction of raw materials and the manufacturing of AI infrastructure, and culminating in real-time interactions with users, every aspect of the AI lifecycle consumes natural resources – energy, water, and minerals – and releases greenhouse gases. The amount of energy needed to power AI now outpaces what renewable energy sources can provide, and the rapidly increasing usage of AI portends significant environmental consequences. The goal of this primer is to shed light on the environmental impacts of the full AI lifecycle, describing which kinds of impacts are at play when, and why they matter.
Dans ce cours, vous découvrirez ce que recouvre vraiment l'intelligence artificielle : ses enjeux, ses possibilités, son fonctionnement scientifique ainsi que ses sous-disciplines, comme le Machine Learning et le Deep Learning.
Vous vous souvenez ? En conclusion de notre dossier sur le recrutement automatisé, on évoquait la possibilité prochaine qu’à l’automatisation des recrutements répondent l’automatisation des candidatures. Eh bien nous y sommes, explique 404media en évoquant AIHawk, un assistant de recherche d’emploi déposé sur Github, qui permet de postuler à des emplois sur LinkedIn à grande échelle.
Tant la figure de l’algorithme que celle de l’intelligence artificielle (IA) bénéficient d’une popularité sans pareille dans les médias. Cet engouement est d’autant plus surprenant en regard de la technicité de ce thème. Malheureusement, ce traitement médiatique relègue souvent l’analyse du sujet à des considérations techniques au détriment de ses dimensions sociales. Pourtant, si ces artefacts informatiques étranges méritent bien d’être questionnés au sein de l’espace public, c’est pour l’influence qu’ils peuvent exercer aujourd’hui sur nos modes de vie et nos opportunités de faire société. Lorsque l’on parle à la fois d’influence et d’IA, c’est la thématique des « biais algorithmiques » qui fait généralement les gros titres. À travers cet article, nous allons essayer d’insérer un peu de nuance dans ce débat sans pour autant négliger certaines technicités.
Après un Tribunal pour les Générations Futures organisé en novembre 2023 autour du rôle des cultures autochtones dans la préservation du vivant, Usbek & Rica et le Bureau Français de Taipei poursuivent leur exploration des grands enjeux d’avenir en interrogeant l’impact de l’intelligence artificielle sur la démocratie. Alors que plus de la moitié de la population mondiale est appelée aux urnes en 2024, l’intelligence artificielle peut-elle protéger la démocratie des maux qui la menacent, ou risque-t-elle de signer sa perte ? L’intelligence artificielle peut-elle inaugurer un nouvel âge de la démocratie, en facilitant l’expression et la représentation des citoyens dans l’élaboration des politiques publiques ?
L’intelligence artificielle est appelée à s’immiscer dans la majeure partie de nos interactions numériques. Avec sa capacité à produire instantanément un « baratin » plausible adapté aux préférences de chacun, quels sont les risques que l’intelligence fausse nos interactions sociales, voire mine nos démocraties ?
Avec une capacité à construire des textes, des images, des vidéos – bref des réalités alternatives – l'IA ne va pas seulement développer des univers parallèles, elle va façonner le réel. En effet, les humains sont des êtres qui imaginent le monde avant de le vivre. Qui contrôle les imaginaires, oriente les humains.
Dans cette perspective, les IA et ceux qui les contrôlent sont en passe d’affecter de façon majeure la formation de l’opinion, et donc d’orienter la volonté des peuples en construisant des narrations massivement diffusées.
L’utilisation de l’intelligence artificielle par l’administration est connue de 46 % des Français et les trois quarts d’entre eux se disent préoccupés par cet usage, selon l’enquête Acteurs publics/EY pour l’Observatoire des politiques publiques réalisée par l’Ifop.
Classée 6e mondiale selon l’indice de préparation des administrations à l’IA en 2023 (étude Oxford Insights), la France se distingue par son adoption proactive de l’IA pour transformer ses services. Dans son rapport “IA et action publique” publié en 2022, le Conseil d’État avait déjà répertorié des centaines de cas d’usage où l’IA améliore les opérations, les prises de décision et les relations aux citoyens. Depuis, le nombre des applications IA a considérablement augmenté et s’est ancré dans les pratiques. Nous observons également que les projets IA améliorent indirectement de nombreux autres aspects du fonctionnement des administrations : approches plus agiles, itératives et collaboratives, harmonisation des pratiques ou encore digitalisation de fonctions traditionnellement moins digitales.
Alors que les travaux se multiplient pour réguler le domaine de l'intelligence artificielle, l'équipe du Centre de recherche sur les modèles de fondation de Stanford dévoile un index d'analyse de la transparence des modèles d'IA généralistes. Résultat de la toute première analyse : tout le monde peut (largement) mieux faire.
Selon une étude menée par Rishi Bommasani et plusieurs autres chercheurs du Center for Research on Foundation Models (CRFM) de l’Institute for Human-Centered Artificial Intelligence (HAI) de Stanford, ni Meta, ni Hugging Face, ni Open AI (qui contient pourtant le mot « open » dans son nom) ni Google n’explosent les scores en matière de transparence de leurs modèles de fondation. Selon les scientifiques, ils sont même de moins en moins transparents.
L’intelligence artificielle (IA) est aujourd’hui souvent considérée comme un des outils à utiliser pour résoudre les problèmes environnementaux. En particulier, elle pourrait permettre de réduire les émissions de gaz à effet de serre (GES) dans plusieurs secteurs comme l'agriculture ou les transports. Mais la mise en place et l’utilisation de solutions basées sur l'IA peuvent nécessiter beaucoup d’énergie et d’équipements, qui ont eux aussi un impact sur l’environnement. Alors comment évaluer les bénéfices nets complets de telles solutions d’IA sur l’environnement ?
Qu’est-ce qu’un neurone artificiel ? Et quelle différence entre une hallucination humaine et celle d’une machine ?
Au gré de nos articles sur l’intelligence artificielle, nous utilisons à loisir tout un vocabulaire qui, s’il est souvent tiré d’activités humaines, qualifie bien des éléments spécifiques au champ informatique. Après avoir décortiqué une partie des expressions génériques qui qualifient certains champs et sous-champs du domaine, intéressons-nous donc au fonctionnement plus précis des systèmes d’IA.
La question de la régulation de l’intelligence artificielle est majeure. Elle articule une variété de courants, des plus techno-optimistes, plaidant l’adaptation à un avenir déjà écrit, aux oppositions plus frontales aux technologies numériques et à la « civilisation industrielle » dans son ensemble. Entre les deux, on retrouve les approches régulationnistes, engageant à encadrer davantage le développement de l’IA dans un esprit de responsabilité. Un domaine en particulier est souvent mentionné dans ce champ : la « regulation by design » (RbD). Il s’agit en résumé, d’incorporer les régulations en vigueur à la conception des systèmes, ce qui ne va pas sans poser quelques questions.
Une nouvelle étude révèle que les hallucinations de grands modèles de langage (LLM) découlent de leurs structures mathématiques et logiques fondamentales. En augmentant la complexité et la capacité des modèles, il est possible de réduire la fréquence de ces hallucinations, mais il serait impossible de les éliminer complètement.
Depuis 2022, les intelligences artificielles génératives s’imposent à la planète numérique. En animant les unes des journaux et les débats en ligne, ces fantasmes dystopiques masquent la leçon la plus spectaculaire que nous donne l’IA : notre culture est profondément inégalitaire et structurée autour de représentations biaisées, construites par l’histoire et les dominations. Si les IA génératives d’images traduisent et amplifient ces discriminations sociales, c’est principalement à cause des préjugés qui structurent les données d’entrainement des algorithmes. Mais l’inégalité se situe aussi dans l’usage de ces technologies en apparence élémentaire.
Une note de veille et de ressources sur les IA génératives, alors que l'excitation post-ChatGPT est encore bien vive.
Souhaitant partager les travaux et débats conduits lors de l’évènement de novembre 2023, la CNIL publie aujourd’hui le cahier air2023 « IA et libre arbitre : sommes-nous des moutons numériques ? », qui reprend les grands axes de l’évènement :
- L’IA au quotidien : comment faire pour que l’intelligence artificielle soit au service de nos vies ?
- L’art de l’artifice : comment mettre l’IA au service de la créativité ?
- L’IA et les mutations au travail : comment l’IA peut-elle être mise au service du marché de l’emploi, des entreprises et des travailleurs ?
Ce cahier s’adresse à tous, qu’il s’agisse du grand public – premier concerné par les transformations apportées par l’IA, des professionnels mettant en place des solutions innovantes, des chercheurs, ou encore des pouvoirs publics.
L’intelligence artificielle (IA) est-elle davantage un remède qu’un poison climatique ? Les géants de la tech, de Google à Microsoft, le clament haut et fort : les apports de ces technologies pour décarboner les économies et s’adapter au réchauffement seront à terme majeurs. A l’inverse, nombre d’experts préviennent que ces gains restent hypothétiques. L’empreinte carbone et la consommation électrique de services comme ChatGPT, d’ores et déjà importantes, risquent de devenir colossales. Ils appellent à la mesure face à une solution « utile » mais pas « miracle ».
Selon des tests réalisés pour l’autorité australienne de régulation des entreprises, la Securities and Investments Commission (ASIC), l’intelligence artificielle produit de moins bons résultats que les humains dans toutes les tâches de résumé. Au point que ces technologies pourraient créer du travail supplémentaire plutôt qu’en enlever.
L’écoconception des équipements et services numériques fait partie des leviers identifiés pour inverser la tendance en réduisant l’empreinte environnementale du numérique. Ce terme désigne « l’intégration des caractéristiques environnementales dans la conception du produit en vue d’améliorer la performance environnementale du produit tout au long de son cycle de vie ».
Le référentiel général de l’écoconception des services numériques est un document technique destiné aux experts et métiers du numérique souhaitant mettre en œuvre une démarche d’écoconception pour un service(sites, applications, IA, logiciels, API). Il a été élaboré par l’Arcep et l’Arcom, en collaboraiton avec l’ADEME, la DINUM, la CNIL et l’Inria.
Les progrès de l'intelligence artificielle éblouissent mais interrogent : la technologie ne passe-t-elle pas à côté de l'essentiel ? Dans les années 1970, des informaticiens hippies rêvaient de machines qui aident à développer notre intelligence « naturelle » et notre rapport au monde.
Chercher à développer une économie socialisée de l’intelligence artificielle, n’est-ce pas encore capituler face à la Silicon Valley ? Une IA « communiste » ou « socialiste » doit-elle se limiter à décider qui détient et contrôle les données ou à modifier les modèles et les infrastructures informatiques ? Ne pourrait-elle être porteuse de transformations plus profondes ?
Au lieu de renforcer une approche actuelle fondée notamment sur des objectifs de productivité, Morozov appelle à mobiliser « l’éducation et la culture, les bibliothèques et les universités », afin « d’ouvrir à tous, sans considération de classe, d’ethnicité ni de genre, l’accès à des institutions et des technologies qui favorisent l’autonomie créatrice et permettent de réaliser pleinement ses capacités. »
Trois chercheuses de la plateforme d'hébergement de projets d'IA Hugging Face, Sasha Luccioni, Bruna Trevelin et Margaret Mitchell ont rassemblé les connaissances disponibles actuellement à propos de l'impact de l'IA sur l'environnement. Elles constatent encore trop peu de transparence sur les besoins énergétiques de chaque application d'IA, elles parcourent l'ensemble des connaissances actuellement disponibles.
Selon de nombreux discours politiques et médiatiques, les promesses des intelligences artificielles (IA), s’ajoutant aux autres outils visant à automatiser le travail, n’annonceraient rien de moins que la fin du travail et la destruction de la plupart des emplois à moyen terme. Le sociologue du travail et des relations professionnelles Juan Sebastian Carbonell, qui développe ses recherches à partir du point de vue du monde du travail, bat en brèche dans "Le futur du travail" ce scénario. Les IA, les robots, les machines ne remplacent en effet jamais complètement les travailleur·euses. Mais leur introduction modifie en revanche profondément les conditions dans lesquelles leur activité s’exerce. Souvent dans le sens d’une dégradation.
Antoinette Rouvroy, philosophe et chercheuse en droit à l’Université de Namur, étudie de longue date les enjeux politiques et sociaux des algorithmes. Nous lui avons demandé de quelle manière les systèmes d’intelligences artificielles (IA) travaillaient et transformaient actuellement nos démocraties. Et le danger des algorithmes, ou plutôt du « capitalisme sous stéroïde algorithmique », ne semble pas tant celui de perturber l’information des citoyen·nes ou même les élections. Mais, en flattant notre hyperindividualisme, ces processus nous fragmentent et court-circuitent ce qui fonde même les démocraties : le besoin et le désir de commun. Un moment constitutionnel pourrait bien constituer l’antidote à cette colonisation des esprits par le numérique marchand.