3 liens privés
Portés par les promesses de l’intelligence artificielle, les groupes d’édition scientifique comme Springer Nature (Nature, Scientific American) ou RELX (Cell, The Lancet) atteignent des sommets en Bourse. Marc Watkins, directeur de l’AI Institute for Teachers à l’université du Mississippi, revient sur les mutations à l’œuvre dans le petit monde des revues académiques.
Face à la percée de l’IA chinoise DeepSeek, la tech américaine et Wall Street dévissent | Libération
La Bourse de New York est en forte baisse ce lundi, sous le coup de l’essor d’un nouveau robot conversationnel - «chatbot» - chinois. Ce dernier pourrait concurrencer les performances de ChatGPT tout en étant beaucoup moins coûteux.
L’agence de renseignement américaine a mis au point un chatbot qui permet à ses employés de dialoguer avec des versions virtuelles de présidents et premiers ministres étrangers dans le but de « prédire leurs comportements ». Un nouvel outil qui en dit long sur son intérêt pour l’intelligence artificielle…
Dans un billet initialement publié sur son blog que nous repartageons ici avec son accord, l'artiste franco-canadien Grégory Chatonsky, qui s’intéresse à la relation humain-technique, s’interroge sur la manière dont notre rapport aux images a mené à rendre acceptable le salut nazi fait par Elon Musk lors de la cérémonie d’investiture de Donald Trump, le 20 janvier dernier.
Cette mesure annoncée hier met immédiatement un terme aux exigences de sécurité et de transparence pour les développeurs d’IA. La nouvelle administration semble opter pour une politique moins interventionniste pour soutenir l’innovation.
Donald Trump, arrivé fraichement à la Maison-Blanche, a annoncé hier en grande pompe le projet Stargate. Pas question de science-fiction : plusieurs entreprises, OpenAI et Oracle en tête, vont investir jusqu’à 500 milliards de dollars en quatre ans pour construire des infrastructures destinées à mettre définitivement les États-Unis en première place sur l’IA.
Une intelligence simplement humaine n’a jamais existé : les esprits individuels et collectifs n’ont cessé de se transformer à travers l’évolution des supports artificiels qui permettent de les extérioriser. Pourquoi alors, aujourd’hui, les machines deviennent-elles « spirituelles » ? Pourquoi, au lieu de libérer les humains du travail, semblent-elles transformer leur utilisateurs en ressource ? Au cours de ce voyage dans l’écologie mentale du numérique au temps de l’IA, Anne Alombert montre la naissance d’une technologie intellectuelle d’asservissement des esprits, générant la prolétarisation linguistique et symbolique, homogénéisant le langage et éliminant les singularités. L’espoir se loge dans la collaboration des esprits qu’une telle technologie présuppose.
L’attribution des capacités humaines aux « machines » serait ainsi au service d’un processus d’identification, qui permet à l’homme de s’attribuer en retour la puissance de la machine, de se masquer sa propre vulnérabilité et d’exercer sa domination ou sa supériorité.
Le rapport anthropomorphique, hypnotique et magique à la technique permet aussi de masquer les infrastructures matérielles et les ressources naturelles nécessaires au fonctionnement de ce qui s’apparente plus à un système hyperindustriel réticulaire qu’à une « machine » à proprement parler : plutôt que des « machines intelligentes » ou des « machines spirituelles », les automates computationnels que nous mobilisons quotidiennement fonctionnent en réseau, à travers la réticulation planétaire de terminaux, de câbles, de centres de données et de satellites, dont le fonctionnement a de lourdes conséquences du point de vue écologique.
IA qu’à m’expliquer profite des deux ans de ChatGPT pour recevoir pour ce 15e épisode le journaliste français Thibault Prévost, qui vient de publier Les prophètes de l’IA, pourquoi la Silicon Valley nous vend l’apocalypse (Ed. Lux). Il décortique la façon dont les Sam Altman et autres Elon Musk promeuvent l’intelligence artificielle de façon à anesthésier toute discussion politique sur l’idéologie qui se cache derrière leurs technologies. Un podcast qui s’intéresse également à la stagnation des entreprises qui développent ces grands modèles de langage.
Le philosophe Rob Horning rapporte que des chercheurs de Google ont publié un article décrivant un projet de « Machines d’Habermas » – hommage au philosophe et à sa théorie de l’espace public – décrivant des machines permettant de faciliter la délibération démocratique. L’idée consiste à utiliser des IA génératives pour générer des déclarations de groupes à partir d’opinions individuelles, en maximisant l’approbation collective par itération successive. Le but : trouver des terrains d’entente sur des sujets clivants, avec une IA qui fonctionne comme un médiateur.
La perspective que dessinent les ingénieurs de Google consiste à court-circuiter le processus démocratique lui-même. Leur proposition vise à réduire la politique en un simple processus d’optimisation et de résolution de problèmes. La médiation par la machine vise clairement à évacuer la conflictualité, au cœur de la politique. Elle permet d’améliorer le contrôle social, au détriment de l’action collective ou de l’engagement, puisque ceux-ci sont de fait évacués par le rejet du conflit. Une politique sans passion ni conviction, où les citoyens eux-mêmes sont finalement évacués. La démocratie est réduite à une simple mécanique de décisions, sans plus aucune participation active.
À chaque étape de l’émergence de l’État artificiel, les leaders technologiques ont promis que les derniers outils seraient bons pour la démocratie… mais ce n’est pas ce qui s’est passé, notamment parce qu’aucun de ces outils ne sont démocratiques. Au contraire, le principal pouvoir de ces outils, de Facebook à X, est d’abord d’offrir aux entreprises un contrôle sans précédent de la parole, leur permettant de moduler tout ce à quoi l’usager accède.
Dans la cacophonie médiatique comme dans le fond des sujets, l’appréhension et la hiérarchisation des risques de l’intelligence artificielle vise souvent à côté, et les réponses aux antédiluviennes questions sur les dégâts du progrès sont toujours attendues. Nous souhaitons avec ce texte, réarmer le débat sur l’IA en portant l’attention – un peu arbitrairement peut-être – sur quatre angles morts qui le polluent actuellement.
De manière générale, les médias commentent les percées technologiques (souvent très relatives) et le développement économique, au détriment des questions sociales et éthiques. Et lorsque celles-ci surgissent, elles puisent le plus souvent dans un répertoire de références populaires issues de la science-fiction.
C’est là un autre point aveugle dans le débat sur les risques de l’IA : la qualité de la négociation locale à propos de la légitimité de son déploiement et, le cas échéant, ses modes de diffusion au sein des entreprises.
Dans son essai Les prophètes de l'IA, paru le 25 octobre aux éditions Lux, le journaliste Thibault Prévost - également pigiste pour Usbek & Rica - dresse un portrait démystificateur des grands noms de l'intelligence artificielle qui nous vendent la fin des temps. Entretien.
Alors que l'intelligence artificielle prend de plus en plus de place dans notre quotidien, quelles sont ses répercussions politiques et géopolitiques ? Émilie Aubry s'entretient avec Asma Mhalla, spécialiste des enjeux politiques de la Tech. Elle explique les bases de l'IA et comment elle est utilisée par les industriels de la Tech et par les États pour véhiculer leurs idées.
Echange lors de l'émission Le dessous des cartes du 12 mars 2024.
Disponible jusqu'au 15/03/2027
L'intelligence artificielle pilotant des drones kamikazes ou faisant patrouiller des chiens robots dans les rues de New York : la science-fiction est en train de devenir réalité. Des experts nous exposent comment l’IA révolutionne déjà les conflits contemporains et nous avertissent des dangers potentiels pour l’humanité.
En explorant les théâtres des conflits contemporains, ouverts ou larvés, et les impressionnantes technologies déjà exploitées par les nations en pointe – de la Russie à Israël, de la Chine aux États-Unis –, des spécialistes de la robotique exposent à quel point l'intelligence artificielle a déjà profondément révolutionné le domaine militaire. Ils nous avertissent de ses risques pour l'avenir, auxquels l'Union européenne, construite sur un idéal de paix, semble encore assez mal préparée : si le déploiement d'armes entièrement autonomes est désormais de l'ordre du possible, c'est aux États de légiférer pour éviter une dangereuse escalade dans la course à l'armement.
Un film documentaire de Daniel Andrew Wunderer disponible sur arte.tv jusqu'au 31/10/2027
Une enquête franche et efficace sur les dessous idéologiques du monde de l’intelligence artificielle (qui n’est, comme on le sait, ni intelligente ni artificielle), les grands mouvements dont ses gourous sont alimentés : survivalisme, long-termisme, altruisme efficace, extropianisme et autres barbarismes qui en long, large et travers, font dégouliner dans la presse les « risques existentiels » d’une IA dite « générale » dont il est apparemment préférable de craindre l'hypothétique avènement prochain que d’interroger les modes de production.
Une lecture conseillée donc, pour l’analyse, la collection édifiantes de faits et de chiffres, et pour les bons mots de l’auteur.
« Nous avons toujours la possibilité de faire des choix qui sont essentiels... Le problème actuel est que nous renonçons à ce choix et laissons le débat sur l’ère future de l’IA à quelques individus. La société, les travailleurs, les syndicats doivent participer au débat sur l’IA. » La leçon du Prix Nobel d’économie 2024, Daron Acemoğlu.
C’est pour cela que parler des technologies numériques et de l’IA comme d’un simple phénomène économique ne suffit pas. Ce sont des outils d’information, ce qui signifie qu’ils influencent tous les aspects de notre vie sociale, y compris la participation démocratique et politique. [...] Il est impossible de construire une prospérité partagée si tous les outils du numérique poussent à l’automatisation et à la centralisation de l’information entre les mains de quelques grandes entreprises.
Dan McQuillan est maître de conférence au département d’informatique de l’université Goldsmiths de Londres. Il est l’auteur de "Resisting AI, an anti-fascist approach to artificial intelligence" (Résister à l’IA, une approche anti-fasciste de l’IA, Bristol University Press, 2022, non traduit).
“L’IA est utilisée comme une forme de “Stratégie du choc“, dans laquelle le sentiment d’urgence généré par une technologie censée transformer le monde est utilisé comme une opportunité pour transformer les systèmes sociaux sans débat démocratique.” Quand l’IA est convoquée pour transformer l’hôpital et l’école, c’est une diversion qui vise à nous masquer leur effondrement sous les coups d’un désinvestissement massif. Or, l’IA ne comprend ni la médecine ni l’éducation. La seule chose que les grands modèles d’IA font très bien, c’est de transférer le contrôle aux grandes entreprises, et ce alors qu’aucun autre acteur n’a les moyens ou la puissance de traiter les données qu’elles savent traiter.
The AI tools provided by companies like Palantir and Clearview raise questions about when and how invasive tech should be used in wartime.
“Ukraine is a living laboratory in which some of these AI-enabled systems can reach maturity through live experiments and constant, quick reiteration,” says Jorritt Kaminga, the director of global policy at RAIN, a research firm that specializes in defense AI. Yet much of the new power will reside in the hands of private companies, not governments accountable to their people.
“This is the first time ever, in a war, that most of the critical technologies are not coming from federally funded research labs but commercial technologies off the shelf,” says Steve Blank, a tech veteran and co-founder of the Gordian Knot Center for National Security Innovation at Stanford University. “And there’s a marketplace for this stuff. So the genie’s out of the bottle.”
C’est une nouvelle règle du jeu dans l’univers de la politique à l’ère numérique : un flot continu de contenus générés artificiellement caractérise désormais les campagnes électorales, avec l’essor d’outils gratuits, comme le clonage des voix ou l’édition d’images.
Au Pakistan, les dernières législatives [en 2018] témoignaient déjà d’une sophistication croissante des campagnes numériques : création de faux comptes, bombardements coordonnés de hashtags, applis mobiles personnalisées, organisation de grands événements à partir des réseaux sociaux… Et, en février 2024, le pays va vivre sa plus grande élection dématérialisée. Les partis politiques sont naturellement tentés de franchir un nouveau cap avec l’intelligence artificielle [IA].
Le capital algorithmique : Accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle par Jonathan Durand Folco et Jonathan Martineau (2023)
Pour Jonathan Durand Folco et Jonathan Martineau, les changements techniques en cours sont tels que nous sommes entrés dans un nouveau stade du capitalisme : le capital algorithmique. En vingt thèses critiques, ils montrent comment la valorisation des données massives et le déploiement rapide de l’intelligence artificielle s’accompagnent de mutations socioéconomiques et politiques majeures. À la fois dynamique d’accumulation, rapport social et forme inédite de pouvoir basé sur les algorithmes, il s’agit d’une réalité multidimensionnelle qui bouleverse déjà profondément nos vies.
Rumman Chowdhury, Timnit Gebru, Safiya Noble, Seeta Peña Gangadharan, and Joy Buolamwini open up about their artificial intelligence fears. Today the risks of artificial intelligence are clear — but the warning signs have been there all along.