3 liens privés
En amont du sommet pour l’action sur l’intelligence artificielle, à Paris, en février, un rapport du Conseil économique, social et environnemental insiste sur le besoin de rendre cette technologique « acceptable ».
Le boom de l'IA menace sérieusement le climat. Plutôt que de cheminer vers l’objectif de neutralité carbone prévu par les Accords de Paris, les grandes puissance mondiales sont actuellement en train de s’en détourner, notamment du fait de la voracité énergétique de l'ogre IA. Un appétit qui a pour effet collatéral de relégitimer la production d'énergie nucléaire ainsi que les sources fossile.
Un risque pour la santé publique. En Californie, une étude récente s’alarme que les particules fines liées à la pollution des data centers pourraient, à terme, provoquer plus de morts que celles liées aux voitures.
Plus grands, plus puissants, plus voraces, les data centers hyper scale sont les ogres qui abritent la puissance de calcul et le stockage des données du secteur de l’IA. L’effervescence du secteur alimente une course au gigantisme qui rend caduque la notion même de mesure.
La Maison-Blanche a publié, à la quasi-surprise générale, un ensemble de règles limitant les exportations de certains composants, au premier rang desquels les puces utilisées pour l’IA. Ces règles découpent le monde en trois parties, selon la proximité politique de chaque pays avec les États-Unis. Dans le monde de la tech, des entreprises font grise mine, notamment NVIDIA.
Dans les heures qui ont suivi la publication du communiqué, NVIDIA a pris la plume pour exprimer sa frustration, sans mâcher ses mots. Le premier vendeur de GPU au monde, que l’IA a placé dans les plus grandes capitalisations boursières de la planète, regrette « une masse réglementaire de plus de 200 pages, rédigée en secret et sans examen législatif approprié ».
L’IA n’est qu’un miroir, une surface inerte nous captivant avec les illusions de profondeur qu’elle nous renvoie, explique la philosophe Shannon Vallor dans son livre The AI mirror (Oxford university press, 2024), qui nous invite à retrouver confiance dans nos capacités humaines.
La philosophe expliquait que le risque existentiel de l’IA n’est pas qu’elle nous submerge, mais qu’elle nous manipule et nous fasse renoncer à notre propre pouvoir, à notre autonomie et notre liberté, qu’on pense que nous devrions confier notre avenir à l’IA parce qu’elle serait plus rationnelle ou objective.
En Arizona, à la rentrée de septembre 2025, le professeur des élèves d’une école de Phoenix sera l’intelligence artificielle de leur ordinateur.
Cette expérience va concerner environ 250 élèves, du CM1 à la quatrième. C’est en fait une école en ligne. Le matin, pendant deux heures, les enfants apprennent par ordinateur des matières traditionnelles - lecture, grammaire, mathématiques, sciences. L’après-midi est consacrée à des sujets plus concrets : parler en public, coder en informatique, travailler en équipe, s’initier à la gestion de l’argent, découvrir les bases de l’entrepreneuriat.
Problème : malgré tous les efforts réalisés par les éditeurs ces deux dernières années pour forcer l’adoption de l’IA générative, la majeure partie des salariés ne sont pas prêts. Pour s’en convaincre, il suffit de constater ce à quoi s’évertuent tous les cabinets conseil et ESN de France et de Navarre : définir des cas d’usage. C’est un peu comme si on listait toutes les destinations accessibles en voiture pour vous motiver à passer votre permis de conduire.
Le constat que je peux faire est le suivant : Si vous avez besoin de lister et de décrire des cas d’usage, c’est que les utilisateurs n’ont aucune idée de ce qu’est l’IA, de ce à quoi elle peut leur servir, et surtout qu’ils n’ont pas envie de s’y intéresser !
Ne vous y trompez pas : Dire en 2025 que l’IA va tout balayer et bouleverser le monde du travail est comme de dire en 1985 que l’informatique va tout balayer et bouleverser le monde du travail : une prévision très vague, insipide, sans réelle prise de risque ni conviction. C’est simplement un moyen d’attirer l’attention, d’occuper l’espace médiatique.
Le Royaume-Uni comme les États-Unis viennent de présenter de nouveaux plans pour soutenir la mise en place d'infrastructures pour l'IA dans leurs territoires. Mais actuellement, aux États-Unis, de nouvelles centrales au gaz sont ouvertes pour répondre aux demandes d'énergie de l'IA. Au Royaume-Uni, l'implantation par le gouvernement de sa « première zone de croissance de l'IA » près d'un nouveau réservoir pose la question des priorités d'accès à l'eau.
Le Financial Time cite le cabinet de conseil en énergie Enverus qui prévoit qu'au moins 80 centrales électriques au gaz seront construites aux États-Unis d'ici à 2030.
Entretien avec le professeur d'ingénierie électrique et informatique Shaolei Ren, auteur d'une étude inédite sur les conséquences sanitaires du déploiement de l'intelligence artificielle.
En amont du sommet sur l'IA, les participants au projet Dial-IA, visant à faciliter le dialogue social technologique au sein des entreprises et des administrations, ont présenté les résultats de leurs travaux.
En pratique, Dial-IA propose différents arguments et documents susceptibles de servir au sein des organisations : un registre des systèmes d’IA, pour faciliter la collecte d’information (et le suivi) des projets, des kits de survie pour mener les dialogues sociaux en entreprise ou dans les administrations, mais aussi des fiches visant à faciliter les discussions à des moments spécifiques du déploiement des systèmes
De nouvelles études sur l'empreinte énergétique de l'intelligence artificielle ont été publiées récemment. L'agence Deloitte estime qu'avec la plus forte adoption envisagée, la consommation des data centers dans le monde pourrait être multipliée par 9 et atteindre 3 550 TWh/ an. En parallèle, des chercheurs d'Harvard soulignent que les centres de données américains sont souvent construits dans des endroits où les sources d'électricité sont plus polluantes que la moyenne nationale.
Une intelligence simplement humaine n’a jamais existé : les esprits individuels et collectifs n’ont cessé de se transformer à travers l’évolution des supports artificiels qui permettent de les extérioriser. Pourquoi alors, aujourd’hui, les machines deviennent-elles « spirituelles » ? Pourquoi, au lieu de libérer les humains du travail, semblent-elles transformer leur utilisateurs en ressource ? Au cours de ce voyage dans l’écologie mentale du numérique au temps de l’IA, Anne Alombert montre la naissance d’une technologie intellectuelle d’asservissement des esprits, générant la prolétarisation linguistique et symbolique, homogénéisant le langage et éliminant les singularités. L’espoir se loge dans la collaboration des esprits qu’une telle technologie présuppose.
L’attribution des capacités humaines aux « machines » serait ainsi au service d’un processus d’identification, qui permet à l’homme de s’attribuer en retour la puissance de la machine, de se masquer sa propre vulnérabilité et d’exercer sa domination ou sa supériorité.
Le rapport anthropomorphique, hypnotique et magique à la technique permet aussi de masquer les infrastructures matérielles et les ressources naturelles nécessaires au fonctionnement de ce qui s’apparente plus à un système hyperindustriel réticulaire qu’à une « machine » à proprement parler : plutôt que des « machines intelligentes » ou des « machines spirituelles », les automates computationnels que nous mobilisons quotidiennement fonctionnent en réseau, à travers la réticulation planétaire de terminaux, de câbles, de centres de données et de satellites, dont le fonctionnement a de lourdes conséquences du point de vue écologique.
À l’occasion de la publication de son livre « L’IA aux Impôts », Solidaires Finances Publiques a donné une conférence de presse pour détailler ses constats et inquiétudes relatifs au déploiement de l’intelligence artificielle au fisc.
Pour détailler les implications de ces bouleversements, le syndicat a donc publié L’IA aux impôts, Réflexions et actions syndicales aux éditions Syllepses, riche analyse des effets concrets du déploiement de ces technologies au sein d’une administration française.
Sur les 4 199 répondants à travers le pays, 20 % déclarent utiliser des outils d’IA dans leurs missions. Sur le terrain, cela dit, l’efficacité de ces outils reste « relative » : plus de 85 % de leurs usagers déclarent que ces outils ne leur permettent pas de se « consacrer à d’autres tâches plus intéressantes », et plus de 90 % déclarent que l’utilisation de l’IA ne donne pas « plus de sens à [leur] travail ».
En cette fin d'année 2024 et deux ans après la sortie de ChatGPT, le débat sur le respect du droit d'auteur au sein des IA génératives émerge de nouveau avec la publication de deux rapports. L'un, du lobby France Digitale, préconise de faire reposer le respect de l'opt-out sur les ayants droit. L'autre est une étude de la Direction générale du Trésor.
France Digitale propose de modifier la loi pour l'adapter aux pratiques de l'industrie de l'IA générative. Ce lobby français veut que les entreprises du numérique ne rencontrent pas d'obstacle dans leur fouille massive du web. Mais pour faire passer la pilule aux sociétés d'ayants droits, le lobby propose la « création d’une nouvelle compensation forfaitaire des ayants droits par les fournisseurs de modèles d’IA générative, sur le modèle de la compensation pour copie privée ».
L’IA générative ne va ni nous augmenter ni nous remplacer, mais vise d’abord à mieux nous exploiter, expliquent Aiha Nguyen et Alexandra Mateescu de Data & Society. En s’intégrant aux applications de travail, elle promet de réduire les coûts même si elle n’est pas pertinente, elle vient contraindre l’activité de travail, et renforce l’opacité et l’asymétrie de pouvoir.
Pour l’instant, pour contester « la marchandisation non rémunérée de leur travail », les travailleurs ont peu de recours, alors que cette nouvelle couche d’exploitation pourrait avoir des conséquences à long terme puisqu’elle vise également à substituer leur travail par des outils, à l’image de la prolifération de mannequins virtuels dans le monde de la mode.
Le recours à l’IA générative renforce également la surveillance et la datafication du lieu de travail, aggravant des décisions automatisées qui sont déjà très peu transparentes aux travailleurs. Automatisation de l’attribution des tâches, de l’évaluation des employés, de la prise de mesures disciplinaires… Non seulement le travail est de plus en plus exploité pour produire des automatisations, mais ces automatisations viennent contraindre l’activité de travail.
L’IA générative est souvent introduite pour accélérer la production et réduire les coûts. Et elle le fait en extrayant la valeur des travailleurs en collectant les données de leur travail et en les transférant à des machines et à des travailleurs moins coûteux qui vont surveiller les machines. A mesure que les travailleurs sont réduits à leurs données, nous devons réfléchir à comment étendre les droits et les protections aux données produites par le travail.
L’utilisation d’intelligences artificielles, dans certains cas, génère des risques de discriminations accrues ou encore de perte de confidentialité ; à tel point que l’Union européenne tente de réguler les usages de l’IA à travers différents niveaux de risques. Ceci pose d’autant plus question que la plupart des systèmes d’IA aujourd’hui ne sont pas en mesure de fournir des explications étayant leurs conclusions. Même les experts ne savent pas toujours comment les systèmes d’IA atteignent leurs décisions. Un nouveau domaine de recherche s’empare du problème : l’« IA explicable » est en plein essor.
Précaires, isolés et cachés par les plateformes, les travailleur·euses de données sont aussi invisibles qu'essentiels. Sans ces personnes, pas de ChatGPT, Midjourney ou Gemini. Elles demandent d'urgence un cadre légal à leur travail.
Isolés, précarisés et mis en concurrence pour une simple tâche, les travailleur·euses du clic sont invisibilisés par de grandes entreprises de la Tech. Faute de contrat de travail, ils et elles n’ont aucune sécurité dans leur emploi.
« Accélérer la prochaine vague nucléaire pour alimenter l'innovation en intelligence artificielle », tel est le projet annoncé ce 3 décembre par Meta. En pratique, la maison mère de Facebook et WhatsApp publie un appel à projet pour trouver des développeurs capables de mettre en marche des réacteurs nucléaires d’ici 2030.
Le but : créer une nouvelle source d’énergie pour satisfaire les besoins toujours croissants des centres de données de l’entreprise. La course à l’intelligence artificielle dans laquelle s’est lancée l’industrie du numérique, en particulier celle aux applications appuyées sur de grands modèles de langage, entraîne en effet une explosion de la demande en énergie.
Comment fonctionne une intelligence artificielle ou IA ? Quelles sont ses différentes applications, et quel est ou sera leur impact sur notre société ? Après cette vidéo, vous allez tout comprendre et aurez l'algorithme dans la peau !
Artificial intelligence (AI) is the most discussed technology of recent years. Advocates promise that it will help overcome productivity challenges and radically transform the economy through increased wage gains and higher economic output, among other benefits.
Productivity is a key ingredient in future economic growth and standard of living, as it offers the potential to increase output without increasing inputs—like worker hours, natural resources, and investment costs. Yet, in past waves of innovation, we have seen patterns where a technology achieves widespread adoption, without any evidence of it increasing productivity. Will this time be different?
In this study, we tackle the critical question of whether AI adoption leads to productivity improvement at the firm level. Evidence of productivity gains from AI use is mixed. There is no conclusive evidence of a strong positive or negative relationship between AI adoption and short-term productivity improvement.
The set of firms that adopted AI were already more productive than their peers, but the decision to adopt AI did not increase the rate at which their productivity grew.
Use of AI on images of the dead is unregulated in the country, leaving cybersecurity experts worried about the potential for deepfakes and identity theft.
J. García López, a funeral home in Mexico that launched its Día de Muertos campaign in October, received over 15,000 requests to create AI-generated videos of deceased persons. Daniela Rojas, senior program officer at Eon Institute, an AI-focused Mexican think tank, expressed concerns about how such companies store people’s images and biometrics.
Using AI to resurrect the dead has raised ethical questions elsewhere. In 2020, Jang Ji-sung, a mother of four in South Korea, was virtually reunited with an AI-generated avatar of her dead 7-year-old daughter. Ji-sung had said this helped her say farewell to her child, but “many psychologists have come up and said this might, in some cases, make the grieving process longer”. The discussion has yet to take hold in Mexico, where the practice of digital resurrections exploded in popularity this year.