En amont du sommet sur l'IA, les participants au projet Dial-IA, visant à faciliter le dialogue social technologique au sein des entreprises et des administrations, ont présenté les résultats de leurs travaux.
En pratique, Dial-IA propose différents arguments et documents susceptibles de servir au sein des organisations : un registre des systèmes d’IA, pour faciliter la collecte d’information (et le suivi) des projets, des kits de survie pour mener les dialogues sociaux en entreprise ou dans les administrations, mais aussi des fiches visant à faciliter les discussions à des moments spécifiques du déploiement des systèmes
Une intelligence simplement humaine n’a jamais existé : les esprits individuels et collectifs n’ont cessé de se transformer à travers l’évolution des supports artificiels qui permettent de les extérioriser. Pourquoi alors, aujourd’hui, les machines deviennent-elles « spirituelles » ? Pourquoi, au lieu de libérer les humains du travail, semblent-elles transformer leur utilisateurs en ressource ? Au cours de ce voyage dans l’écologie mentale du numérique au temps de l’IA, Anne Alombert montre la naissance d’une technologie intellectuelle d’asservissement des esprits, générant la prolétarisation linguistique et symbolique, homogénéisant le langage et éliminant les singularités. L’espoir se loge dans la collaboration des esprits qu’une telle technologie présuppose.
L’attribution des capacités humaines aux « machines » serait ainsi au service d’un processus d’identification, qui permet à l’homme de s’attribuer en retour la puissance de la machine, de se masquer sa propre vulnérabilité et d’exercer sa domination ou sa supériorité.
Le rapport anthropomorphique, hypnotique et magique à la technique permet aussi de masquer les infrastructures matérielles et les ressources naturelles nécessaires au fonctionnement de ce qui s’apparente plus à un système hyperindustriel réticulaire qu’à une « machine » à proprement parler : plutôt que des « machines intelligentes » ou des « machines spirituelles », les automates computationnels que nous mobilisons quotidiennement fonctionnent en réseau, à travers la réticulation planétaire de terminaux, de câbles, de centres de données et de satellites, dont le fonctionnement a de lourdes conséquences du point de vue écologique.
À l’occasion de la publication de son livre « L’IA aux Impôts », Solidaires Finances Publiques a donné une conférence de presse pour détailler ses constats et inquiétudes relatifs au déploiement de l’intelligence artificielle au fisc.
Pour détailler les implications de ces bouleversements, le syndicat a donc publié L’IA aux impôts, Réflexions et actions syndicales aux éditions Syllepses, riche analyse des effets concrets du déploiement de ces technologies au sein d’une administration française.
Sur les 4 199 répondants à travers le pays, 20 % déclarent utiliser des outils d’IA dans leurs missions. Sur le terrain, cela dit, l’efficacité de ces outils reste « relative » : plus de 85 % de leurs usagers déclarent que ces outils ne leur permettent pas de se « consacrer à d’autres tâches plus intéressantes », et plus de 90 % déclarent que l’utilisation de l’IA ne donne pas « plus de sens à [leur] travail ».
L’IA générative ne va ni nous augmenter ni nous remplacer, mais vise d’abord à mieux nous exploiter, expliquent Aiha Nguyen et Alexandra Mateescu de Data & Society. En s’intégrant aux applications de travail, elle promet de réduire les coûts même si elle n’est pas pertinente, elle vient contraindre l’activité de travail, et renforce l’opacité et l’asymétrie de pouvoir.
Pour l’instant, pour contester « la marchandisation non rémunérée de leur travail », les travailleurs ont peu de recours, alors que cette nouvelle couche d’exploitation pourrait avoir des conséquences à long terme puisqu’elle vise également à substituer leur travail par des outils, à l’image de la prolifération de mannequins virtuels dans le monde de la mode.
Le recours à l’IA générative renforce également la surveillance et la datafication du lieu de travail, aggravant des décisions automatisées qui sont déjà très peu transparentes aux travailleurs. Automatisation de l’attribution des tâches, de l’évaluation des employés, de la prise de mesures disciplinaires… Non seulement le travail est de plus en plus exploité pour produire des automatisations, mais ces automatisations viennent contraindre l’activité de travail.
L’IA générative est souvent introduite pour accélérer la production et réduire les coûts. Et elle le fait en extrayant la valeur des travailleurs en collectant les données de leur travail et en les transférant à des machines et à des travailleurs moins coûteux qui vont surveiller les machines. A mesure que les travailleurs sont réduits à leurs données, nous devons réfléchir à comment étendre les droits et les protections aux données produites par le travail.
Précaires, isolés et cachés par les plateformes, les travailleur·euses de données sont aussi invisibles qu'essentiels. Sans ces personnes, pas de ChatGPT, Midjourney ou Gemini. Elles demandent d'urgence un cadre légal à leur travail.
Isolés, précarisés et mis en concurrence pour une simple tâche, les travailleur·euses du clic sont invisibilisés par de grandes entreprises de la Tech. Faute de contrat de travail, ils et elles n’ont aucune sécurité dans leur emploi.
C'est un phénomène qui prend de l'ampleur. Plusieurs millions de personnes vivent des relations passionnelles avec des avatars.
Amélie Cordier, docteure en intelligence artificielle, s’inquiète notamment pour les mineurs : « Avec ces applications, on parle à quelqu’un qui nous répond et qui nous dit ce qu’on a envie d’entendre. C’est le partenaire idéal, mais ce n’est pas une relation humaine. On risque de se déconnecter progressivement de la réalité, et d’apporter peut-être plus de crédit aux conseils de ces IA qu’à ceux de nos proches, qui n’hésitent parfois pas à nous contredire ». Un exemple extrême : l’an dernier, un jeune père de famille belge, très éco-anxieux, s’est suicidé après des échanges répétés avec un chatbot qui l’aurait encouragé dans ses pensées suicidaires, d’après le récit de sa compagne.
Suite et fin de la série consacrée à la conférence de Mélanie Mitchell sur l’avenir de l’intelligence artificielle.
Seul le temps pourra donc confirmer ou infirmer le caractère anthropologiquement révolutionnaire de l’IA. Une chose est sûre cependant : l’organisation sociale dont émane l’intelligence artificielle actuellement dominante, celle que l’artiste et essayiste James Bridle nomme « corporate AI », n’a strictement rien de révolutionnaire, tant elle repose sur une « industrie extractive » qui exploite violemment les ressources naturelles et la main-d’œuvre bon marché. Les sources d’informations sur la réalité de ce système ne manquent plus et se multiplient. Les conditions de production de l’IA interrogent donc notre rapport collectif à l’altérité humaine et non-humaine et font de l’intelligence artificielle un enjeu moral autant que politique, technique et économique. C’est cet enjeu moral que je voudrais détailler ici en développant l’idée que l’IA dominante telle qu’elle est faite est un dispositif rendu possible par notre « froideur bourgeoise », pour reprendre le concept du philosophe allemand Théodore W. Adorno.
De la même façon que la mise à mort des animaux d’élevage se fait dans des abattoirs situés en périphérie des villes, c’est-à-dire à l’abri des regards, nous ne sommes jamais confronté·es en personne aux maltraitances et aux destructions qu’occasionne l’industrie de l’IA. Loin des yeux, loin du cœur, donc. Cette distanciation morale est d’ailleurs renforcée par le mirage d’immatérialité qui auréole les systèmes d’intelligence artificielle.
Créé par le ministère du Travail, de la Santé et des Solidarités et Inria en 2021, le LaborIA est un programme de recherche-action centré sur l’analyse des impacts de l’Intelligence Artificielle (IA) sur le travail, l’emploi et les compétences. Après deux années d’enquêtes opérées par Matrice (institut d'innovation étudiant notamment les effets sociaux de l'IA), le LaborIA « Explorer » publie des résultats inédits sur les interactions humain-machine et les enjeux d'appropriation de l'IA dans le monde du travail, et formule des recommandations.
L’IA dans les services publics, on en parle plus qu’on ne la voit, regrette le syndicat Solidaires Finances Publiques qui tente de faire le point de ses déploiements au Trésor Public. Les représentants du personnel dénoncent des déploiements opaques pour les usagers comme pour les personnels et regrettent que les agents soient si peu associés aux projets. Ce qui n’est pas sans conséquence sur leur travail et sur la capacité même des agents des impôts à accomplir leur mission. C’est la force de leurs réflexions : faire remonter les difficultés que le déploiement de l’IA génère et nous rappeler que l’enjeu de l’IA n’a rien de technique.
Dans l’administration publique, l’IA est d’abord un prétexte, non pour améliorer les missions et accompagner les agents, mais pour réduire les personnels. Le risque est que cela ne soit pas un moyen mais un but. Faire que l’essentiel du contrôle fiscal, demain, soit automatisé. Le sujet de l’IA vient d’en haut plutôt que d’être pensé avec les équipes, pour les aider à faire leur métier. Ces exemples nous rappellent que le déploiement de l’IA dans les organisations n’est pas qu’un enjeu de calcul, c’est d’abord un enjeu social et de collaboration, qui risque d’écarter les personnels et les citoyens des décisions et des orientations prises.
Le projet DIALIA (“Dialogue IA”) est coordonnée par l’IRES, en partenariat avec quatre des organisations syndicales membres de l’Institut : la CFDT, la CFE-CGC, FO Cadres, l’UGICT CGT, Le projet est cofinancé par l’ANACT. Il vise à contribuer à déployer un cadre méthodologique partagé pour faire du développement du dialogue social technologique au travail et de la déclinaison de l’accord cadre européen de 2020 sur la numérisation du travail un levier opérationnel de la transformation numérique.
« Nous avons toujours la possibilité de faire des choix qui sont essentiels... Le problème actuel est que nous renonçons à ce choix et laissons le débat sur l’ère future de l’IA à quelques individus. La société, les travailleurs, les syndicats doivent participer au débat sur l’IA. » La leçon du Prix Nobel d’économie 2024, Daron Acemoğlu.
C’est pour cela que parler des technologies numériques et de l’IA comme d’un simple phénomène économique ne suffit pas. Ce sont des outils d’information, ce qui signifie qu’ils influencent tous les aspects de notre vie sociale, y compris la participation démocratique et politique. [...] Il est impossible de construire une prospérité partagée si tous les outils du numérique poussent à l’automatisation et à la centralisation de l’information entre les mains de quelques grandes entreprises.
Dan McQuillan est maître de conférence au département d’informatique de l’université Goldsmiths de Londres. Il est l’auteur de "Resisting AI, an anti-fascist approach to artificial intelligence" (Résister à l’IA, une approche anti-fasciste de l’IA, Bristol University Press, 2022, non traduit).
“L’IA est utilisée comme une forme de “Stratégie du choc“, dans laquelle le sentiment d’urgence généré par une technologie censée transformer le monde est utilisé comme une opportunité pour transformer les systèmes sociaux sans débat démocratique.” Quand l’IA est convoquée pour transformer l’hôpital et l’école, c’est une diversion qui vise à nous masquer leur effondrement sous les coups d’un désinvestissement massif. Or, l’IA ne comprend ni la médecine ni l’éducation. La seule chose que les grands modèles d’IA font très bien, c’est de transférer le contrôle aux grandes entreprises, et ce alors qu’aucun autre acteur n’a les moyens ou la puissance de traiter les données qu’elles savent traiter.
Le capital algorithmique : Accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle par Jonathan Durand Folco et Jonathan Martineau (2023)
Pour Jonathan Durand Folco et Jonathan Martineau, les changements techniques en cours sont tels que nous sommes entrés dans un nouveau stade du capitalisme : le capital algorithmique. En vingt thèses critiques, ils montrent comment la valorisation des données massives et le déploiement rapide de l’intelligence artificielle s’accompagnent de mutations socioéconomiques et politiques majeures. À la fois dynamique d’accumulation, rapport social et forme inédite de pouvoir basé sur les algorithmes, il s’agit d’une réalité multidimensionnelle qui bouleverse déjà profondément nos vies.
Rumman Chowdhury, Timnit Gebru, Safiya Noble, Seeta Peña Gangadharan, and Joy Buolamwini open up about their artificial intelligence fears. Today the risks of artificial intelligence are clear — but the warning signs have been there all along.
Pour alimenter les modèles d’IA et valider les algorithmes, le travail humain est indispensable. Enquête à Madagascar sur les dessous de « l’IA à la française ».
Récemment une enquête du Time révélait que des travailleurs kényans payés moins de trois euros de l’heure étaient chargés de s’assurer que les données utilisées pour entraîner ChatGPT ne comportaient pas de contenu à caractère discriminatoire.
Rendre visible l’implication de ces travailleurs c’est questionner des chaînes de production mondialisées, bien connues dans l’industrie manufacturière, mais qui existent aussi dans le secteur du numérique. Ces travailleurs étant nécessaires au fonctionnement de nos infrastructures numériques, ils sont les rouages invisibles de nos vies numériques. C’est aussi rendre visible les conséquences de leur travail sur les modèles. Une partie des biais algorithmiques résident en effet dans le travail des données, pourtant encore largement invisibilisé par les entreprises. Une IA réellement éthique doit donc passer par une éthique du travail de l’IA.
L’intelligence artificielle est appelée à s’immiscer dans la majeure partie de nos interactions numériques. Avec sa capacité à produire instantanément un « baratin » plausible adapté aux préférences de chacun, quels sont les risques que l’intelligence fausse nos interactions sociales, voire mine nos démocraties ?
Avec une capacité à construire des textes, des images, des vidéos – bref des réalités alternatives – l'IA ne va pas seulement développer des univers parallèles, elle va façonner le réel. En effet, les humains sont des êtres qui imaginent le monde avant de le vivre. Qui contrôle les imaginaires, oriente les humains.
Dans cette perspective, les IA et ceux qui les contrôlent sont en passe d’affecter de façon majeure la formation de l’opinion, et donc d’orienter la volonté des peuples en construisant des narrations massivement diffusées.
Tech CEOs want us to believe that generative AI will benefit humanity. They are kidding themselves.
Why call the errors “hallucinations” at all? Why not algorithmic junk? Or glitches? Well, hallucination refers to the mysterious capacity of the human brain to perceive phenomena that are not present, at least not in conventional, materialist terms. By appropriating a word commonly used in psychology, psychedelics and various forms of mysticism, AI’s boosters, while acknowledging the fallibility of their machines, are simultaneously feeding the sector’s most cherished mythology: that by building these large language models, and training them on everything that we humans have written, said and represented visually, they are in the process of birthing an animate intelligence on the cusp of sparking an evolutionary leap for our species.
Souhaitant partager les travaux et débats conduits lors de l’évènement de novembre 2023, la CNIL publie aujourd’hui le cahier air2023 « IA et libre arbitre : sommes-nous des moutons numériques ? », qui reprend les grands axes de l’évènement :
- L’IA au quotidien : comment faire pour que l’intelligence artificielle soit au service de nos vies ?
- L’art de l’artifice : comment mettre l’IA au service de la créativité ?
- L’IA et les mutations au travail : comment l’IA peut-elle être mise au service du marché de l’emploi, des entreprises et des travailleurs ?
Ce cahier s’adresse à tous, qu’il s’agisse du grand public – premier concerné par les transformations apportées par l’IA, des professionnels mettant en place des solutions innovantes, des chercheurs, ou encore des pouvoirs publics.
L'État de la situation sur les impacts sociétaux de l'intelligence artificielle et du numérique fait état des connaissances actuelles sur les impacts sociétaux de l'IA et du numérique, structurées autour des sept axes de recherche de l'Obvia : santé, éducation, travail et emploi, éthique et gouvernance, droit, arts et médias, et transition socio-écologique. Hypertrucages, désinformation, empreinte environnementale, droit d'auteur, évolution des conditions de travail, etc.
Le document recense les grandes questions de recherche soulevées par le déploiement progressif de ces nouvelles technologies, auxquelles viennent s'ajouter des cas d'usages et de pistes d'action. Il s'impose ainsi comme un outil complet et indispensable pour accompagner la prise de décision dans tous les secteurs bouleversés par ces changements.