Mensuel Shaarli
December, 2024
De nouvelles études sur l'empreinte énergétique de l'intelligence artificielle ont été publiées récemment. L'agence Deloitte estime qu'avec la plus forte adoption envisagée, la consommation des data centers dans le monde pourrait être multipliée par 9 et atteindre 3 550 TWh/ an. En parallèle, des chercheurs d'Harvard soulignent que les centres de données américains sont souvent construits dans des endroits où les sources d'électricité sont plus polluantes que la moyenne nationale.
Bibliographie sélective sur le thème : intelligence artificielle et éducation (décembre 2024).
À l’occasion de la publication de son livre « L’IA aux Impôts », Solidaires Finances Publiques a donné une conférence de presse pour détailler ses constats et inquiétudes relatifs au déploiement de l’intelligence artificielle au fisc.
Pour détailler les implications de ces bouleversements, le syndicat a donc publié L’IA aux impôts, Réflexions et actions syndicales aux éditions Syllepses, riche analyse des effets concrets du déploiement de ces technologies au sein d’une administration française.
Sur les 4 199 répondants à travers le pays, 20 % déclarent utiliser des outils d’IA dans leurs missions. Sur le terrain, cela dit, l’efficacité de ces outils reste « relative » : plus de 85 % de leurs usagers déclarent que ces outils ne leur permettent pas de se « consacrer à d’autres tâches plus intéressantes », et plus de 90 % déclarent que l’utilisation de l’IA ne donne pas « plus de sens à [leur] travail ».
L’IA générative ne va ni nous augmenter ni nous remplacer, mais vise d’abord à mieux nous exploiter, expliquent Aiha Nguyen et Alexandra Mateescu de Data & Society. En s’intégrant aux applications de travail, elle promet de réduire les coûts même si elle n’est pas pertinente, elle vient contraindre l’activité de travail, et renforce l’opacité et l’asymétrie de pouvoir.
Pour l’instant, pour contester « la marchandisation non rémunérée de leur travail », les travailleurs ont peu de recours, alors que cette nouvelle couche d’exploitation pourrait avoir des conséquences à long terme puisqu’elle vise également à substituer leur travail par des outils, à l’image de la prolifération de mannequins virtuels dans le monde de la mode.
Le recours à l’IA générative renforce également la surveillance et la datafication du lieu de travail, aggravant des décisions automatisées qui sont déjà très peu transparentes aux travailleurs. Automatisation de l’attribution des tâches, de l’évaluation des employés, de la prise de mesures disciplinaires… Non seulement le travail est de plus en plus exploité pour produire des automatisations, mais ces automatisations viennent contraindre l’activité de travail.
L’IA générative est souvent introduite pour accélérer la production et réduire les coûts. Et elle le fait en extrayant la valeur des travailleurs en collectant les données de leur travail et en les transférant à des machines et à des travailleurs moins coûteux qui vont surveiller les machines. A mesure que les travailleurs sont réduits à leurs données, nous devons réfléchir à comment étendre les droits et les protections aux données produites par le travail.
Vous souhaitez mettre en place des activités sur l’Intelligence Artificielle (IA) ? La Scientothèque met à disposition un ensemble de protocoles pédagogiques à destination des enseignants de primaire et secondaire ainsi que des animateurs désirant aborder la thématique de l’IA.
Kit pédagogique à destination des managers et agents souhaitant s'acculturer sur l'IA et éventuellement proposer un atelier découverte au sein de leur équipe. Un outil clé en main !
Artificial intelligence (AI) is the most discussed technology of recent years. Advocates promise that it will help overcome productivity challenges and radically transform the economy through increased wage gains and higher economic output, among other benefits.
Productivity is a key ingredient in future economic growth and standard of living, as it offers the potential to increase output without increasing inputs—like worker hours, natural resources, and investment costs. Yet, in past waves of innovation, we have seen patterns where a technology achieves widespread adoption, without any evidence of it increasing productivity. Will this time be different?
In this study, we tackle the critical question of whether AI adoption leads to productivity improvement at the firm level. Evidence of productivity gains from AI use is mixed. There is no conclusive evidence of a strong positive or negative relationship between AI adoption and short-term productivity improvement.
The set of firms that adopted AI were already more productive than their peers, but the decision to adopt AI did not increase the rate at which their productivity grew.
La première étude mondiale sur l’impact de l’IA évalue la chute des rémunérations des artistes à 24 % dans la musique d’ici à cinq ans. Dans l’audiovisuel, la baisse est estimée à 21 %.
A contrario, le marché des contenus tant musicaux qu’audiovisuels générés par l’IA va connaître « une croissance exponentielle, en passant dans les cinq prochaines années de 3 milliards d’euros à 64 milliards d’euros en 2028 ». Une manne qui ne profitera en rien aux créateurs, en raison de « l’effet de substitution de l’IA sur leurs œuvres », affirme l’étude. Sans surprise, les fournisseurs d’IA générative profiteront, eux, pleinement de ces évolutions technologiques et bénéficieront d’une croissance très soutenue.
Les auteurs de l’étude se veulent particulièrement alarmants concernant le sort de certaines professions, comme celles des traducteurs et adaptateurs qui travaillent dans le doublage et le sous-titrage. Ils risquent de perdre 56 % de leurs revenus. Dans la même veine, les scénaristes et les réalisateurs pourraient voir leurs commandes amputées de 15 % à 20 %.
Plus une caractéristique culturelle est inhabituelle, moins elle a de chances d’être mise en évidence dans la représentation de la culture par un grand modèle de langage. L’IA saura-t-elle nous aider à identifier ce qui est nouveau ?
Le politiste Henry Farrell [...] estime que le risque de l’IA est qu’elle produise un monde de similitude, un monde unique et moyen : « Le problème avec les grands modèles est qu’ils ont tendance à sélectionner les caractéristiques qui sont communes et à s’opposer à celles qui sont contraires, originales, épurées, étranges. Avec leur généralisation, le risque est qu’ils fassent disparaître certains aspects de notre culture plus rapidement que d’autres ». Pour Farrell, ce constat contredit les grands discours sur la capacité d’innovation distribuée de l’IA. Au contraire, l’IA nous conduit à un aplatissement, effaçant les particularités qui nous distinguent.
Dans la ville suisse de Lucerne, la chapelle Saint-Pierre a installé pendant deux mois un dispositif baptisé Deus in Machina en lieu et place de son confessionnal. Soit un « Jésus [virtuel] équipé d’une intelligence artificielle, capable de dialoguer dans 100 langues différentes ».
Alors que le développement de l’intelligence artificielle progresse à une vitesse fulgurante, certains des hommes les plus riches du monde sont peut-être en train de décider du sort de l’humanité. Les prévisions en matière d’évolution de l’IA oscillent entre promesses évolutionnistes peu crédibles et anticipations dans lesquelles l’IA menacerait l’existence même de l’espèce humaine.
Cette thèse d’une possible extinction de notre espèce se déploie dans différents milieux, dont certains liés à l’industrie de l’IA, et incitent certains acteurs à en appeler à un ralentissement voire un arrêt total de son développement.
Tandis que l’idée du risque existentiel semble gagner du terrain rapidement, une grande publication publie presque chaque semaine un essai soutenant que le risque existentiel détourne l’attention des préjudices existants. Pendant ce temps, beaucoup plus d’argent et de personnes sont discrètement consacrés à rendre les systèmes d’IA plus puissants qu’à les rendre plus sûrs ou moins biaisés.
De la même manière que les logiciels ont « mangé le monde« , il faut s’attendre à ce que l’IA présente une dynamique similaire de « winner-takes-all » qui conduira à des concentrations de richesse et de pouvoir encore plus importantes.
Suite et fin de la transcription de la seconde partie dédiée au fonctionnement des IA.
Pour introduire à l’IA, j’ai conseillé la lecture d’Intelligence artificielle. Triomphes et déceptions de la chercheuse et spécialiste Melanie Mitchell. Elle a donné récemment une conférence The Future of Artificial Intelligence qui intègre la question des IA génératives. Cette conférence est vraiment bien faite, elle couvre l’histoire de l’IA jusqu’à aujourd’hui, donne juste ce qu’il faut d’explication technique et aborde des problèmes cruciaux. Mais elle est en anglais, ce qui peut être un obstacle pour un public déjà non spécialiste de l’IA et de plus francophone. J’ai projeté d’en faire une adaptation écrite et demandé son accord à Melanie Mitchell. Ce qu’elle a fait immédiatement et je l’en remercie vivement.
Une intelligence simplement humaine n’a jamais existé : les esprits individuels et collectifs n’ont cessé de se transformer à travers l’évolution des supports artificiels qui permettent de les extérioriser. Pourquoi alors, aujourd’hui, les machines deviennent-elles « spirituelles » ? Pourquoi, au lieu de libérer les humains du travail, semblent-elles transformer leur utilisateurs en ressource ? Au cours de ce voyage dans l’écologie mentale du numérique au temps de l’IA, Anne Alombert montre la naissance d’une technologie intellectuelle d’asservissement des esprits, générant la prolétarisation linguistique et symbolique, homogénéisant le langage et éliminant les singularités. L’espoir se loge dans la collaboration des esprits qu’une telle technologie présuppose.
L’attribution des capacités humaines aux « machines » serait ainsi au service d’un processus d’identification, qui permet à l’homme de s’attribuer en retour la puissance de la machine, de se masquer sa propre vulnérabilité et d’exercer sa domination ou sa supériorité.
Le rapport anthropomorphique, hypnotique et magique à la technique permet aussi de masquer les infrastructures matérielles et les ressources naturelles nécessaires au fonctionnement de ce qui s’apparente plus à un système hyperindustriel réticulaire qu’à une « machine » à proprement parler : plutôt que des « machines intelligentes » ou des « machines spirituelles », les automates computationnels que nous mobilisons quotidiennement fonctionnent en réseau, à travers la réticulation planétaire de terminaux, de câbles, de centres de données et de satellites, dont le fonctionnement a de lourdes conséquences du point de vue écologique.
En cette fin d'année 2024 et deux ans après la sortie de ChatGPT, le débat sur le respect du droit d'auteur au sein des IA génératives émerge de nouveau avec la publication de deux rapports. L'un, du lobby France Digitale, préconise de faire reposer le respect de l'opt-out sur les ayants droit. L'autre est une étude de la Direction générale du Trésor.
France Digitale propose de modifier la loi pour l'adapter aux pratiques de l'industrie de l'IA générative. Ce lobby français veut que les entreprises du numérique ne rencontrent pas d'obstacle dans leur fouille massive du web. Mais pour faire passer la pilule aux sociétés d'ayants droits, le lobby propose la « création d’une nouvelle compensation forfaitaire des ayants droits par les fournisseurs de modèles d’IA générative, sur le modèle de la compensation pour copie privée ».
L’utilisation d’intelligences artificielles, dans certains cas, génère des risques de discriminations accrues ou encore de perte de confidentialité ; à tel point que l’Union européenne tente de réguler les usages de l’IA à travers différents niveaux de risques. Ceci pose d’autant plus question que la plupart des systèmes d’IA aujourd’hui ne sont pas en mesure de fournir des explications étayant leurs conclusions. Même les experts ne savent pas toujours comment les systèmes d’IA atteignent leurs décisions. Un nouveau domaine de recherche s’empare du problème : l’« IA explicable » est en plein essor.
Comment fonctionne une intelligence artificielle ou IA ? Quelles sont ses différentes applications, et quel est ou sera leur impact sur notre société ? Après cette vidéo, vous allez tout comprendre et aurez l'algorithme dans la peau !
Comment fonctionne l’intelligence artificielle ? Comment la démystifier et appréhender ses enjeux ? La CNIL propose une sélection de quelques livres, films ou ressources en ligne pour les curieux.
Un jeu de cartes pour explorer les enjeux sociaux et environnementaux de l’IA Générative en 2h – imaginé par les associations Latitudes et Data for Good.
Use of AI on images of the dead is unregulated in the country, leaving cybersecurity experts worried about the potential for deepfakes and identity theft.
J. García López, a funeral home in Mexico that launched its Día de Muertos campaign in October, received over 15,000 requests to create AI-generated videos of deceased persons. Daniela Rojas, senior program officer at Eon Institute, an AI-focused Mexican think tank, expressed concerns about how such companies store people’s images and biometrics.
Using AI to resurrect the dead has raised ethical questions elsewhere. In 2020, Jang Ji-sung, a mother of four in South Korea, was virtually reunited with an AI-generated avatar of her dead 7-year-old daughter. Ji-sung had said this helped her say farewell to her child, but “many psychologists have come up and said this might, in some cases, make the grieving process longer”. The discussion has yet to take hold in Mexico, where the practice of digital resurrections exploded in popularity this year.
C'est un phénomène qui prend de l'ampleur. Plusieurs millions de personnes vivent des relations passionnelles avec des avatars.
Amélie Cordier, docteure en intelligence artificielle, s’inquiète notamment pour les mineurs : « Avec ces applications, on parle à quelqu’un qui nous répond et qui nous dit ce qu’on a envie d’entendre. C’est le partenaire idéal, mais ce n’est pas une relation humaine. On risque de se déconnecter progressivement de la réalité, et d’apporter peut-être plus de crédit aux conseils de ces IA qu’à ceux de nos proches, qui n’hésitent parfois pas à nous contredire ». Un exemple extrême : l’an dernier, un jeune père de famille belge, très éco-anxieux, s’est suicidé après des échanges répétés avec un chatbot qui l’aurait encouragé dans ses pensées suicidaires, d’après le récit de sa compagne.
Deux ans après le lancement en France de l’agent conversationnel ChatGPT, le 30 novembre 2022, les élèves interrogés par La Croix disent y avoir largement recours pour faire leurs devoirs. Les professeurs, eux, cherchent encore la parade.
IA qu’à m’expliquer profite des deux ans de ChatGPT pour recevoir pour ce 15e épisode le journaliste français Thibault Prévost, qui vient de publier Les prophètes de l’IA, pourquoi la Silicon Valley nous vend l’apocalypse (Ed. Lux). Il décortique la façon dont les Sam Altman et autres Elon Musk promeuvent l’intelligence artificielle de façon à anesthésier toute discussion politique sur l’idéologie qui se cache derrière leurs technologies. Un podcast qui s’intéresse également à la stagnation des entreprises qui développent ces grands modèles de langage.
GPT la planète ? L’impact environnemental de l’incontournable outil d’intelligence artificielle est souvent insoupçonné et sous-estimé, et risque bien d’empirer dans les années à venir. Décryptage.
Malgré tous les efforts des expert·es du secteur, cette empreinte demeure très compliquée à estimer. La faute à des modèles qui évoluent très vite et rendent caduques les estimations, ainsi qu’à des effets volontairement sous-documentés par les entreprises du secteur.
En matière d’IA, il y a le modèle mais aussi ce qu’il permet de produire. Par exemple, il peut aider des entreprises fossiles à accélérer la production de secteurs polluants (le textile, la tech, etc.). Or, cet élément est quasiment impossible à prendre en compte lorsque l’on calcule l’impact de ces outils.
Le chercheur et philosophe Luciano Floridi formule l’hypothèse suivante : les précédentes explosions de bulles technologiques signalent que la hype actuelle en provoquera une nouvelle.
« Les avancées rapides dans le domaine de l’IA, en particulier dans l’apprentissage automatique, l’apprentissage profond et les modèles de langage (ou, pour être plus précis, les modèles fondamentaux), ont suscité un engouement, des investissements et une attention médiatique croissants, se renforçant mutuellement et rappelant les bulles technologiques précédentes. »
Suite et fin de la série consacrée à la conférence de Mélanie Mitchell sur l’avenir de l’intelligence artificielle.
Suite et fin de la transcription de la première partie dédiée à l'histoire de l'IA.
Quand nous parlons avec ChatGPT, nous avons l’impression de discuter avec un semblable. Pourtant, son fonctionnement est assez éloigné de notre propre cognition.
De par sa fonction d’agent conversationnel, nous projetons de facto sur ChatGPT des fonctions cognitives similaires à celles qu’un interlocuteur humain pourrait développer. Se tourner vers les sciences cognitives va permettre de mieux comprendre leur nature, les interactions qui vont en résulter et les risques associés. Cette caractéristique primordiale des chatbots provoque en effet une mécompréhension de leur fonctionnement par l’utilisateur et donc un excès de confiance dans leurs résultats.
alors que ChatGPT est un système complexe comportant des milliards de paramètres, entraîné à partir de milliers de milliards de données pour apprendre à prédire la suite de mots la plus probable, il cache cette complexité derrière sa fonction d’agent conversationnel qui nous parle. Par simple projection, comme on le fait quand nous parlons avec nos semblables, nous développons cette illusion d’interagir avec un agent intelligent, qui pense, ressent et comprend comme nous.
Est-ce grave ?
Oui : Cela alimente la désinformation et permet aux "Iron Men" de produire à la chaîne sans vérification. Fake news, perte de crédibilité et surproduction de contenu erroné.
Non : Cela nous oblige à rester vigilant et à aiguiser notre esprit critique. Copier-coller sans réfléchir n’a jamais été une bonne idée, IA ou pas.
Un groupe de chercheurs a mis au point un système d'IA capable de protéger les utilisateurs contre la reconnaissance faciale indésirable par des acteurs malveillants. Baptisé Chameleon, le modèle d'IA utilise une technologie spéciale de masquage pour générer un masque qui dissimule les visages dans les images sans affecter la qualité visuelle de l'image protégée. En outre, les chercheurs affirment que le modèle est optimisé en matière de ressources, ce qui le rend utilisable même avec une puissance de traitement limitée. Les chercheurs ont également fait part de leur intention de publier le code du modèle d'IA Chameleon prochainement.
Précaires, isolés et cachés par les plateformes, les travailleur·euses de données sont aussi invisibles qu'essentiels. Sans ces personnes, pas de ChatGPT, Midjourney ou Gemini. Elles demandent d'urgence un cadre légal à leur travail.
Isolés, précarisés et mis en concurrence pour une simple tâche, les travailleur·euses du clic sont invisibilisés par de grandes entreprises de la Tech. Faute de contrat de travail, ils et elles n’ont aucune sécurité dans leur emploi.
« Accélérer la prochaine vague nucléaire pour alimenter l'innovation en intelligence artificielle », tel est le projet annoncé ce 3 décembre par Meta. En pratique, la maison mère de Facebook et WhatsApp publie un appel à projet pour trouver des développeurs capables de mettre en marche des réacteurs nucléaires d’ici 2030.
Le but : créer une nouvelle source d’énergie pour satisfaire les besoins toujours croissants des centres de données de l’entreprise. La course à l’intelligence artificielle dans laquelle s’est lancée l’industrie du numérique, en particulier celle aux applications appuyées sur de grands modèles de langage, entraîne en effet une explosion de la demande en énergie.
Un format d'atelier qui vise à accompagner le grand public dans la compréhension du fonctionnement d'une IA
Dans un papier publié dans la revue Nature, des chercheurs interrogent la rhétorique d’une intelligence artificielle dite « ouverte ».
En conclusion, on se contentera ici de citer les auteurs : « La poursuite de l’IA la plus ouverte ne conduira pas à un écosystème plus diversifié, responsable ou démocratisé, bien qu’elle puisse avoir d’autres avantages. Nous observons également que, comme par le passé, les grandes entreprises technologiques en quête d’avantages dans l’IA utilisent l’IA ouverte pour consolider leur domination sur le marché tout en déployant le discours d’ouverture pour détourner les accusations de monopole de l’IA et de régulation associée. »
Quelles sont les pratiques des jeunes en matière d’IA, en milieu académique comme professionnel ? Quel rapport ont-ils avec ces technologies ? L’Université Paris Dauphine-PSL apporte plusieurs éléments de réponse grâce à son enquête réalisée auprès de son effectif étudiant.
L’étude a été réalisée auprès de 800 étudiants de Dauphine, autant inscrits en licence (50 %) qu’en master (47 %), essentiellement en management, informatique et finance. 1 étudiant sur 2 utilise les IA génératives (IAG) une fois par semaine à l’Université Paris Dauphine-PSL, révèle l’étude. ChatGPT est l’outil le plus usité par les étudiants sondés : 50 % déclarent utiliser la version gratuite et 13 % la version payante. La ressource citée juste après est Copilot, l’IA de Microsoft. 78 % des jeunes sondés estiment que ces outils leur permettent de réaliser leur travail plus rapidement.
Dans un rapport fleuve de 334 pages, l'Office parlementaire d'évaluation des choix scientifiques et technologiques (OPECST) dénonce un plan « sans objectifs, gouvernance ni suivi ». Il formule 18 recommandations dont cinq pour améliorer le prochain sommet sur l'IA en février.
Après avoir analysé un échantillon de 8 795 posts LinkedIn publics de plus de 100 mots publiés entre janvier 2018 et octobre 2024, la start-up de détection de contenus générés par IA Originality a découvert que le nombre de messages longs susceptibles d'avoir été générés par IA avait explosé de 189 % dans les mois suivants le lancement de ChatGPT.
Elle estime aussi que 54 % des articles longs publiés en octobre 2024 en anglais sur LinkedIn ont probablement été générés par IA. De plus, les messages longs assistés par l'IA affichent une augmentation du nombre de mots de 107 % comparé à la période précédant le lancement de ChatGPT.
In the late summer, Google surveyed 1,005 full-time knowledge workers, age 22-39, who are either in leadership roles or aspire to one. 93% of Gen Z respondents, age 22 - 27 and 79% of millennials (28 - 39), said they were using two or more AI tools a week — such as ChatGPT, DALL-E, Otter.ai, and other generative AI products.
This paper examines ‘open’ AI. Claims about ‘open’ AI often lack precision, frequently eliding scrutiny of substantial industry concentration in large-scale AI development and deployment, and often incorrectly applying understandings of ‘open’ imported from free and open-source software to AI systems. At present, powerful actors are seeking to shape policy using claims that ‘open’ AI is either beneficial to innovation and democracy, on the one hand, or detrimental to safety, on the other. When policy is being shaped, definitions matter.
To add clarity to this debate, we examine the basis for claims of openness in AI, and offer a material analysis of what AI is and what ‘openness’ in AI can and cannot provide: examining models, data, labour, frameworks, and computational power. We highlight three main affordances of ‘open’ AI, namely transparency, reusability, and extensibility, and we observe that maximally ‘open’ AI allows some forms of oversight and experimentation on top of existing models. However, we find that openness alone does not perturb the concentration of power in AI. Just as many traditional open-source software projects were co-opted in various ways by large technology companies, we show how rhetoric around ‘open’ AI is frequently wielded in ways that exacerbate rather than reduce concentration of power in the AI sector.
Depuis l'émergence des modèles d'IA générative, les besoins en énergie des principaux constructeurs ont explosé, au point que Microsoft, Google puis Amazon aient successivement annoncé se tourner vers le nucléaire pour y répondre. Mais concrètement, quels sont les effets de l'intelligence artificielle sur le climat ? Dans quelle mesure ces technologies aident-elles à lutter contre le dérèglement climatique ? Ont-elles plutôt tendance à le renforcer ? Next en discute avec le sociologue Clément Marquet et l'informaticienne Anne-Laure Ligozat.
Suite de la série consacrée à la conférence de Mélanie Mitchell sur l’avenir de l’intelligence artificielle.
Alors que l’intelligence artificielle accélère la propagation de fausses images, les cours d’histoire se doivent d’intégrer une formation à l’histoire numérique. Explications avec le projet VIRAPIC.
En constituant une base de référencement des photographies virales, détournées, décontextualisées ou inventées autour d’évènement historiques, le projet VIRAPIC permettra d’accéder rapidement à un contenu historique solide et critique sur les images que les élèves, enseignants ou éditeurs souhaitent publier en ligne ou utiliser en cours.