3 liens privés
À l’occasion de la publication de son livre « L’IA aux Impôts », Solidaires Finances Publiques a donné une conférence de presse pour détailler ses constats et inquiétudes relatifs au déploiement de l’intelligence artificielle au fisc.
Pour détailler les implications de ces bouleversements, le syndicat a donc publié L’IA aux impôts, Réflexions et actions syndicales aux éditions Syllepses, riche analyse des effets concrets du déploiement de ces technologies au sein d’une administration française.
Sur les 4 199 répondants à travers le pays, 20 % déclarent utiliser des outils d’IA dans leurs missions. Sur le terrain, cela dit, l’efficacité de ces outils reste « relative » : plus de 85 % de leurs usagers déclarent que ces outils ne leur permettent pas de se « consacrer à d’autres tâches plus intéressantes », et plus de 90 % déclarent que l’utilisation de l’IA ne donne pas « plus de sens à [leur] travail ».
L’IA générative ne va ni nous augmenter ni nous remplacer, mais vise d’abord à mieux nous exploiter, expliquent Aiha Nguyen et Alexandra Mateescu de Data & Society. En s’intégrant aux applications de travail, elle promet de réduire les coûts même si elle n’est pas pertinente, elle vient contraindre l’activité de travail, et renforce l’opacité et l’asymétrie de pouvoir.
Pour l’instant, pour contester « la marchandisation non rémunérée de leur travail », les travailleurs ont peu de recours, alors que cette nouvelle couche d’exploitation pourrait avoir des conséquences à long terme puisqu’elle vise également à substituer leur travail par des outils, à l’image de la prolifération de mannequins virtuels dans le monde de la mode.
Le recours à l’IA générative renforce également la surveillance et la datafication du lieu de travail, aggravant des décisions automatisées qui sont déjà très peu transparentes aux travailleurs. Automatisation de l’attribution des tâches, de l’évaluation des employés, de la prise de mesures disciplinaires… Non seulement le travail est de plus en plus exploité pour produire des automatisations, mais ces automatisations viennent contraindre l’activité de travail.
L’IA générative est souvent introduite pour accélérer la production et réduire les coûts. Et elle le fait en extrayant la valeur des travailleurs en collectant les données de leur travail et en les transférant à des machines et à des travailleurs moins coûteux qui vont surveiller les machines. A mesure que les travailleurs sont réduits à leurs données, nous devons réfléchir à comment étendre les droits et les protections aux données produites par le travail.
L’utilisation d’intelligences artificielles, dans certains cas, génère des risques de discriminations accrues ou encore de perte de confidentialité ; à tel point que l’Union européenne tente de réguler les usages de l’IA à travers différents niveaux de risques. Ceci pose d’autant plus question que la plupart des systèmes d’IA aujourd’hui ne sont pas en mesure de fournir des explications étayant leurs conclusions. Même les experts ne savent pas toujours comment les systèmes d’IA atteignent leurs décisions. Un nouveau domaine de recherche s’empare du problème : l’« IA explicable » est en plein essor.
Précaires, isolés et cachés par les plateformes, les travailleur·euses de données sont aussi invisibles qu'essentiels. Sans ces personnes, pas de ChatGPT, Midjourney ou Gemini. Elles demandent d'urgence un cadre légal à leur travail.
Isolés, précarisés et mis en concurrence pour une simple tâche, les travailleur·euses du clic sont invisibilisés par de grandes entreprises de la Tech. Faute de contrat de travail, ils et elles n’ont aucune sécurité dans leur emploi.
C'est un phénomène qui prend de l'ampleur. Plusieurs millions de personnes vivent des relations passionnelles avec des avatars.
Amélie Cordier, docteure en intelligence artificielle, s’inquiète notamment pour les mineurs : « Avec ces applications, on parle à quelqu’un qui nous répond et qui nous dit ce qu’on a envie d’entendre. C’est le partenaire idéal, mais ce n’est pas une relation humaine. On risque de se déconnecter progressivement de la réalité, et d’apporter peut-être plus de crédit aux conseils de ces IA qu’à ceux de nos proches, qui n’hésitent parfois pas à nous contredire ». Un exemple extrême : l’an dernier, un jeune père de famille belge, très éco-anxieux, s’est suicidé après des échanges répétés avec un chatbot qui l’aurait encouragé dans ses pensées suicidaires, d’après le récit de sa compagne.
La première étude mondiale sur l’impact de l’IA évalue la chute des rémunérations des artistes à 24 % dans la musique d’ici à cinq ans. Dans l’audiovisuel, la baisse est estimée à 21 %.
A contrario, le marché des contenus tant musicaux qu’audiovisuels générés par l’IA va connaître « une croissance exponentielle, en passant dans les cinq prochaines années de 3 milliards d’euros à 64 milliards d’euros en 2028 ». Une manne qui ne profitera en rien aux créateurs, en raison de « l’effet de substitution de l’IA sur leurs œuvres », affirme l’étude. Sans surprise, les fournisseurs d’IA générative profiteront, eux, pleinement de ces évolutions technologiques et bénéficieront d’une croissance très soutenue.
Les auteurs de l’étude se veulent particulièrement alarmants concernant le sort de certaines professions, comme celles des traducteurs et adaptateurs qui travaillent dans le doublage et le sous-titrage. Ils risquent de perdre 56 % de leurs revenus. Dans la même veine, les scénaristes et les réalisateurs pourraient voir leurs commandes amputées de 15 % à 20 %.
Plus une caractéristique culturelle est inhabituelle, moins elle a de chances d’être mise en évidence dans la représentation de la culture par un grand modèle de langage. L’IA saura-t-elle nous aider à identifier ce qui est nouveau ?
Le politiste Henry Farrell [...] estime que le risque de l’IA est qu’elle produise un monde de similitude, un monde unique et moyen : « Le problème avec les grands modèles est qu’ils ont tendance à sélectionner les caractéristiques qui sont communes et à s’opposer à celles qui sont contraires, originales, épurées, étranges. Avec leur généralisation, le risque est qu’ils fassent disparaître certains aspects de notre culture plus rapidement que d’autres ». Pour Farrell, ce constat contredit les grands discours sur la capacité d’innovation distribuée de l’IA. Au contraire, l’IA nous conduit à un aplatissement, effaçant les particularités qui nous distinguent.
IA qu’à m’expliquer profite des deux ans de ChatGPT pour recevoir pour ce 15e épisode le journaliste français Thibault Prévost, qui vient de publier Les prophètes de l’IA, pourquoi la Silicon Valley nous vend l’apocalypse (Ed. Lux). Il décortique la façon dont les Sam Altman et autres Elon Musk promeuvent l’intelligence artificielle de façon à anesthésier toute discussion politique sur l’idéologie qui se cache derrière leurs technologies. Un podcast qui s’intéresse également à la stagnation des entreprises qui développent ces grands modèles de langage.
Alors que le développement de l’intelligence artificielle progresse à une vitesse fulgurante, certains des hommes les plus riches du monde sont peut-être en train de décider du sort de l’humanité. Les prévisions en matière d’évolution de l’IA oscillent entre promesses évolutionnistes peu crédibles et anticipations dans lesquelles l’IA menacerait l’existence même de l’espèce humaine.
Cette thèse d’une possible extinction de notre espèce se déploie dans différents milieux, dont certains liés à l’industrie de l’IA, et incitent certains acteurs à en appeler à un ralentissement voire un arrêt total de son développement.
Tandis que l’idée du risque existentiel semble gagner du terrain rapidement, une grande publication publie presque chaque semaine un essai soutenant que le risque existentiel détourne l’attention des préjudices existants. Pendant ce temps, beaucoup plus d’argent et de personnes sont discrètement consacrés à rendre les systèmes d’IA plus puissants qu’à les rendre plus sûrs ou moins biaisés.
De la même manière que les logiciels ont « mangé le monde« , il faut s’attendre à ce que l’IA présente une dynamique similaire de « winner-takes-all » qui conduira à des concentrations de richesse et de pouvoir encore plus importantes.
Suite et fin de la série consacrée à la conférence de Mélanie Mitchell sur l’avenir de l’intelligence artificielle.
Alors que l’intelligence artificielle accélère la propagation de fausses images, les cours d’histoire se doivent d’intégrer une formation à l’histoire numérique. Explications avec le projet VIRAPIC.
En constituant une base de référencement des photographies virales, détournées, décontextualisées ou inventées autour d’évènement historiques, le projet VIRAPIC permettra d’accéder rapidement à un contenu historique solide et critique sur les images que les élèves, enseignants ou éditeurs souhaitent publier en ligne ou utiliser en cours.
Les images générées par intelligence artificielle (IA), à la frontière entre le réel et le virtuel, brouillent les lignes légales en matière de pédocriminalité. En France l’alerte est lancée par la Fondation pour l’enfance pour qui « beaucoup de ses photos et vidéos montrant des mineurs agressés et maltraités sont si réaliste qu’il est presque impossible de les distinguer d’images de vrais enfants. »
Si la modération des IA comme Chat GPT, DALL-E, Midjourney empêche en principe la création de contenus inappropriés par leurs conditions d’utilisation, les garde-fous techniques restent limités. Les modèles d’IA génératives en sources ouvertes, tels que Stable Diffusion, offrent peu de contrôle sur les requêtes des utilisateurs, laissant libre cours à des usages détournés.
Le philosophe Rob Horning rapporte que des chercheurs de Google ont publié un article décrivant un projet de « Machines d’Habermas » – hommage au philosophe et à sa théorie de l’espace public – décrivant des machines permettant de faciliter la délibération démocratique. L’idée consiste à utiliser des IA génératives pour générer des déclarations de groupes à partir d’opinions individuelles, en maximisant l’approbation collective par itération successive. Le but : trouver des terrains d’entente sur des sujets clivants, avec une IA qui fonctionne comme un médiateur.
La perspective que dessinent les ingénieurs de Google consiste à court-circuiter le processus démocratique lui-même. Leur proposition vise à réduire la politique en un simple processus d’optimisation et de résolution de problèmes. La médiation par la machine vise clairement à évacuer la conflictualité, au cœur de la politique. Elle permet d’améliorer le contrôle social, au détriment de l’action collective ou de l’engagement, puisque ceux-ci sont de fait évacués par le rejet du conflit. Une politique sans passion ni conviction, où les citoyens eux-mêmes sont finalement évacués. La démocratie est réduite à une simple mécanique de décisions, sans plus aucune participation active.
À chaque étape de l’émergence de l’État artificiel, les leaders technologiques ont promis que les derniers outils seraient bons pour la démocratie… mais ce n’est pas ce qui s’est passé, notamment parce qu’aucun de ces outils ne sont démocratiques. Au contraire, le principal pouvoir de ces outils, de Facebook à X, est d’abord d’offrir aux entreprises un contrôle sans précédent de la parole, leur permettant de moduler tout ce à quoi l’usager accède.
Créé par le ministère du Travail, de la Santé et des Solidarités et Inria en 2021, le LaborIA est un programme de recherche-action centré sur l’analyse des impacts de l’Intelligence Artificielle (IA) sur le travail, l’emploi et les compétences. Après deux années d’enquêtes opérées par Matrice (institut d'innovation étudiant notamment les effets sociaux de l'IA), le LaborIA « Explorer » publie des résultats inédits sur les interactions humain-machine et les enjeux d'appropriation de l'IA dans le monde du travail, et formule des recommandations.
Le projet DIALIA (“Dialogue IA”) est coordonnée par l’IRES, en partenariat avec quatre des organisations syndicales membres de l’Institut : la CFDT, la CFE-CGC, FO Cadres, l’UGICT CGT, Le projet est cofinancé par l’ANACT. Il vise à contribuer à déployer un cadre méthodologique partagé pour faire du développement du dialogue social technologique au travail et de la déclinaison de l’accord cadre européen de 2020 sur la numérisation du travail un levier opérationnel de la transformation numérique.
Dans la cacophonie médiatique comme dans le fond des sujets, l’appréhension et la hiérarchisation des risques de l’intelligence artificielle vise souvent à côté, et les réponses aux antédiluviennes questions sur les dégâts du progrès sont toujours attendues. Nous souhaitons avec ce texte, réarmer le débat sur l’IA en portant l’attention – un peu arbitrairement peut-être – sur quatre angles morts qui le polluent actuellement.
De manière générale, les médias commentent les percées technologiques (souvent très relatives) et le développement économique, au détriment des questions sociales et éthiques. Et lorsque celles-ci surgissent, elles puisent le plus souvent dans un répertoire de références populaires issues de la science-fiction.
C’est là un autre point aveugle dans le débat sur les risques de l’IA : la qualité de la négociation locale à propos de la légitimité de son déploiement et, le cas échéant, ses modes de diffusion au sein des entreprises.
Les données utilisées pour entraîner les IA reflètent les stéréotypes et les préjugés de la société, par exemple envers des groupes sous-représentés. Pour conserver la confidentialité de données sensibles, comme les données de santé, tout en garantissant qu’elles ne sont pas biaisées, il faut adapter les méthodes d’apprentissage.
Et si plutôt que refléter, voire exacerber une réalité actuelle dysfonctionnelle, l’IA pouvait être vertueuse et servir à corriger les biais dans la société, pour une société plus inclusive ? C’est ce que proposent les chercheurs avec une nouvelle approche : l’« apprentissage fédéré ».
Le marché des infrastructures réseau connaît une dynamique et un intérêt sans précédent depuis des décennies, et l'intelligence artificielle promet de le rendre encore plus fascinant.
La transition de l’informatique à usage général à l’informatique accélérée nécessite de nouveaux logiciels et architectures de réseaux distribués pour connecter, déplacer et traiter les données à des vitesses fulgurantes, avec une très faible latence et presque aucune tolérance à la perte de données.
Dans son essai Les prophètes de l'IA, paru le 25 octobre aux éditions Lux, le journaliste Thibault Prévost - également pigiste pour Usbek & Rica - dresse un portrait démystificateur des grands noms de l'intelligence artificielle qui nous vendent la fin des temps. Entretien.
Alors que l'intelligence artificielle prend de plus en plus de place dans notre quotidien, quelles sont ses répercussions politiques et géopolitiques ? Émilie Aubry s'entretient avec Asma Mhalla, spécialiste des enjeux politiques de la Tech. Elle explique les bases de l'IA et comment elle est utilisée par les industriels de la Tech et par les États pour véhiculer leurs idées.
Echange lors de l'émission Le dessous des cartes du 12 mars 2024.
Disponible jusqu'au 15/03/2027