3 liens privés
L’utopie algorithmique des puissants est la dystopie algorithmique des démunis.
L’IA générative n’est pas tant une rupture qu’une continuité, explique le politologue Henry Farrell. Elle va produire surtout des déploiements ennuyeux et techniques permettant de fluidifier les organisations. Une société de la synthèse, qui va renforcer la cohérence plus que l’analyse.
Inspiré par le « modèle » niçois, le maire de Vernon expérimente depuis bientôt un an l’Intelligence artificielle pour verbaliser les auteurs de dépôts sauvages. Il entend désormais étendre l’usage de l’IA pour automatiser d’autres tâches.
Comment savoir ce qui est vrai ou pas à l’heure de l’IA ? Informaticienne et philosophe, Aïda Elamrani travaille sur la conscience artificielle et l’éthique de l’intelligence artificielle au sein de l’institut Jean Nicod – département d’études cognitives de l’ENS. Elle prend la parole dans le cadre de sa participation à la 3ème édition du festival de science et fiction Les Mycéliades, qui a lieu dans 75 villes de France du 1 er au 16 février 2025.
Pour améliorer leurs candidatures, se préparer à des entretiens ou des «photos professionnelles», 77 % des chômeurs interrogés dans une enquête publiée ce jeudi 23 janvier par l’observatoire de l’IA et l’emploi avouent utiliser l'outil.
Deux chercheurs avancent que l'explosion de l'IA générative et notre familiarité croissante avec leurs chatbots ouvrent la voie à un nouveau marché de collecte et d'analyse de nos « intentions ». Ils redoutent que cela puisse influencer et biaiser l'accès à l'information, la concurrence libre et non faussée, et jusqu'aux élections.
Le collectif Impact AI, en collaboration avec le cabinet d’audit et de conseil KPMG et BNP Paribas, a publié hier la première édition de son “Observatoire de l’IA responsable”. Ce rapport, réalisé avec l’institut de sondage Viavoice et le centre de prospective GCF, analyse les perceptions des salariés du secteur privé en France quant au déploiement de l’IA dans leur entreprise.
En Arizona, à la rentrée de septembre 2025, le professeur des élèves d’une école de Phoenix sera l’intelligence artificielle de leur ordinateur.
Cette expérience va concerner environ 250 élèves, du CM1 à la quatrième. C’est en fait une école en ligne. Le matin, pendant deux heures, les enfants apprennent par ordinateur des matières traditionnelles - lecture, grammaire, mathématiques, sciences. L’après-midi est consacrée à des sujets plus concrets : parler en public, coder en informatique, travailler en équipe, s’initier à la gestion de l’argent, découvrir les bases de l’entrepreneuriat.
Problème : malgré tous les efforts réalisés par les éditeurs ces deux dernières années pour forcer l’adoption de l’IA générative, la majeure partie des salariés ne sont pas prêts. Pour s’en convaincre, il suffit de constater ce à quoi s’évertuent tous les cabinets conseil et ESN de France et de Navarre : définir des cas d’usage. C’est un peu comme si on listait toutes les destinations accessibles en voiture pour vous motiver à passer votre permis de conduire.
Le constat que je peux faire est le suivant : Si vous avez besoin de lister et de décrire des cas d’usage, c’est que les utilisateurs n’ont aucune idée de ce qu’est l’IA, de ce à quoi elle peut leur servir, et surtout qu’ils n’ont pas envie de s’y intéresser !
Ne vous y trompez pas : Dire en 2025 que l’IA va tout balayer et bouleverser le monde du travail est comme de dire en 1985 que l’informatique va tout balayer et bouleverser le monde du travail : une prévision très vague, insipide, sans réelle prise de risque ni conviction. C’est simplement un moyen d’attirer l’attention, d’occuper l’espace médiatique.
En amont du sommet sur l'IA, les participants au projet Dial-IA, visant à faciliter le dialogue social technologique au sein des entreprises et des administrations, ont présenté les résultats de leurs travaux.
En pratique, Dial-IA propose différents arguments et documents susceptibles de servir au sein des organisations : un registre des systèmes d’IA, pour faciliter la collecte d’information (et le suivi) des projets, des kits de survie pour mener les dialogues sociaux en entreprise ou dans les administrations, mais aussi des fiches visant à faciliter les discussions à des moments spécifiques du déploiement des systèmes
Une intelligence simplement humaine n’a jamais existé : les esprits individuels et collectifs n’ont cessé de se transformer à travers l’évolution des supports artificiels qui permettent de les extérioriser. Pourquoi alors, aujourd’hui, les machines deviennent-elles « spirituelles » ? Pourquoi, au lieu de libérer les humains du travail, semblent-elles transformer leur utilisateurs en ressource ? Au cours de ce voyage dans l’écologie mentale du numérique au temps de l’IA, Anne Alombert montre la naissance d’une technologie intellectuelle d’asservissement des esprits, générant la prolétarisation linguistique et symbolique, homogénéisant le langage et éliminant les singularités. L’espoir se loge dans la collaboration des esprits qu’une telle technologie présuppose.
L’attribution des capacités humaines aux « machines » serait ainsi au service d’un processus d’identification, qui permet à l’homme de s’attribuer en retour la puissance de la machine, de se masquer sa propre vulnérabilité et d’exercer sa domination ou sa supériorité.
Le rapport anthropomorphique, hypnotique et magique à la technique permet aussi de masquer les infrastructures matérielles et les ressources naturelles nécessaires au fonctionnement de ce qui s’apparente plus à un système hyperindustriel réticulaire qu’à une « machine » à proprement parler : plutôt que des « machines intelligentes » ou des « machines spirituelles », les automates computationnels que nous mobilisons quotidiennement fonctionnent en réseau, à travers la réticulation planétaire de terminaux, de câbles, de centres de données et de satellites, dont le fonctionnement a de lourdes conséquences du point de vue écologique.
À l’occasion de la publication de son livre « L’IA aux Impôts », Solidaires Finances Publiques a donné une conférence de presse pour détailler ses constats et inquiétudes relatifs au déploiement de l’intelligence artificielle au fisc.
Pour détailler les implications de ces bouleversements, le syndicat a donc publié L’IA aux impôts, Réflexions et actions syndicales aux éditions Syllepses, riche analyse des effets concrets du déploiement de ces technologies au sein d’une administration française.
Sur les 4 199 répondants à travers le pays, 20 % déclarent utiliser des outils d’IA dans leurs missions. Sur le terrain, cela dit, l’efficacité de ces outils reste « relative » : plus de 85 % de leurs usagers déclarent que ces outils ne leur permettent pas de se « consacrer à d’autres tâches plus intéressantes », et plus de 90 % déclarent que l’utilisation de l’IA ne donne pas « plus de sens à [leur] travail ».
L’IA générative ne va ni nous augmenter ni nous remplacer, mais vise d’abord à mieux nous exploiter, expliquent Aiha Nguyen et Alexandra Mateescu de Data & Society. En s’intégrant aux applications de travail, elle promet de réduire les coûts même si elle n’est pas pertinente, elle vient contraindre l’activité de travail, et renforce l’opacité et l’asymétrie de pouvoir.
Pour l’instant, pour contester « la marchandisation non rémunérée de leur travail », les travailleurs ont peu de recours, alors que cette nouvelle couche d’exploitation pourrait avoir des conséquences à long terme puisqu’elle vise également à substituer leur travail par des outils, à l’image de la prolifération de mannequins virtuels dans le monde de la mode.
Le recours à l’IA générative renforce également la surveillance et la datafication du lieu de travail, aggravant des décisions automatisées qui sont déjà très peu transparentes aux travailleurs. Automatisation de l’attribution des tâches, de l’évaluation des employés, de la prise de mesures disciplinaires… Non seulement le travail est de plus en plus exploité pour produire des automatisations, mais ces automatisations viennent contraindre l’activité de travail.
L’IA générative est souvent introduite pour accélérer la production et réduire les coûts. Et elle le fait en extrayant la valeur des travailleurs en collectant les données de leur travail et en les transférant à des machines et à des travailleurs moins coûteux qui vont surveiller les machines. A mesure que les travailleurs sont réduits à leurs données, nous devons réfléchir à comment étendre les droits et les protections aux données produites par le travail.
Précaires, isolés et cachés par les plateformes, les travailleur·euses de données sont aussi invisibles qu'essentiels. Sans ces personnes, pas de ChatGPT, Midjourney ou Gemini. Elles demandent d'urgence un cadre légal à leur travail.
Isolés, précarisés et mis en concurrence pour une simple tâche, les travailleur·euses du clic sont invisibilisés par de grandes entreprises de la Tech. Faute de contrat de travail, ils et elles n’ont aucune sécurité dans leur emploi.
C'est un phénomène qui prend de l'ampleur. Plusieurs millions de personnes vivent des relations passionnelles avec des avatars.
Amélie Cordier, docteure en intelligence artificielle, s’inquiète notamment pour les mineurs : « Avec ces applications, on parle à quelqu’un qui nous répond et qui nous dit ce qu’on a envie d’entendre. C’est le partenaire idéal, mais ce n’est pas une relation humaine. On risque de se déconnecter progressivement de la réalité, et d’apporter peut-être plus de crédit aux conseils de ces IA qu’à ceux de nos proches, qui n’hésitent parfois pas à nous contredire ». Un exemple extrême : l’an dernier, un jeune père de famille belge, très éco-anxieux, s’est suicidé après des échanges répétés avec un chatbot qui l’aurait encouragé dans ses pensées suicidaires, d’après le récit de sa compagne.
Suite et fin de la série consacrée à la conférence de Mélanie Mitchell sur l’avenir de l’intelligence artificielle.
Seul le temps pourra donc confirmer ou infirmer le caractère anthropologiquement révolutionnaire de l’IA. Une chose est sûre cependant : l’organisation sociale dont émane l’intelligence artificielle actuellement dominante, celle que l’artiste et essayiste James Bridle nomme « corporate AI », n’a strictement rien de révolutionnaire, tant elle repose sur une « industrie extractive » qui exploite violemment les ressources naturelles et la main-d’œuvre bon marché. Les sources d’informations sur la réalité de ce système ne manquent plus et se multiplient. Les conditions de production de l’IA interrogent donc notre rapport collectif à l’altérité humaine et non-humaine et font de l’intelligence artificielle un enjeu moral autant que politique, technique et économique. C’est cet enjeu moral que je voudrais détailler ici en développant l’idée que l’IA dominante telle qu’elle est faite est un dispositif rendu possible par notre « froideur bourgeoise », pour reprendre le concept du philosophe allemand Théodore W. Adorno.
De la même façon que la mise à mort des animaux d’élevage se fait dans des abattoirs situés en périphérie des villes, c’est-à-dire à l’abri des regards, nous ne sommes jamais confronté·es en personne aux maltraitances et aux destructions qu’occasionne l’industrie de l’IA. Loin des yeux, loin du cœur, donc. Cette distanciation morale est d’ailleurs renforcée par le mirage d’immatérialité qui auréole les systèmes d’intelligence artificielle.
Créé par le ministère du Travail, de la Santé et des Solidarités et Inria en 2021, le LaborIA est un programme de recherche-action centré sur l’analyse des impacts de l’Intelligence Artificielle (IA) sur le travail, l’emploi et les compétences. Après deux années d’enquêtes opérées par Matrice (institut d'innovation étudiant notamment les effets sociaux de l'IA), le LaborIA « Explorer » publie des résultats inédits sur les interactions humain-machine et les enjeux d'appropriation de l'IA dans le monde du travail, et formule des recommandations.
L’IA dans les services publics, on en parle plus qu’on ne la voit, regrette le syndicat Solidaires Finances Publiques qui tente de faire le point de ses déploiements au Trésor Public. Les représentants du personnel dénoncent des déploiements opaques pour les usagers comme pour les personnels et regrettent que les agents soient si peu associés aux projets. Ce qui n’est pas sans conséquence sur leur travail et sur la capacité même des agents des impôts à accomplir leur mission. C’est la force de leurs réflexions : faire remonter les difficultés que le déploiement de l’IA génère et nous rappeler que l’enjeu de l’IA n’a rien de technique.
Dans l’administration publique, l’IA est d’abord un prétexte, non pour améliorer les missions et accompagner les agents, mais pour réduire les personnels. Le risque est que cela ne soit pas un moyen mais un but. Faire que l’essentiel du contrôle fiscal, demain, soit automatisé. Le sujet de l’IA vient d’en haut plutôt que d’être pensé avec les équipes, pour les aider à faire leur métier. Ces exemples nous rappellent que le déploiement de l’IA dans les organisations n’est pas qu’un enjeu de calcul, c’est d’abord un enjeu social et de collaboration, qui risque d’écarter les personnels et les citoyens des décisions et des orientations prises.
Le projet DIALIA (“Dialogue IA”) est coordonnée par l’IRES, en partenariat avec quatre des organisations syndicales membres de l’Institut : la CFDT, la CFE-CGC, FO Cadres, l’UGICT CGT, Le projet est cofinancé par l’ANACT. Il vise à contribuer à déployer un cadre méthodologique partagé pour faire du développement du dialogue social technologique au travail et de la déclinaison de l’accord cadre européen de 2020 sur la numérisation du travail un levier opérationnel de la transformation numérique.