3 liens privés
Quand on parle d'Intelligence artificielle on mobilise un terme qui qualifie un ensemble de technologies vaguement reliées, expliquent les chercheurs Arvind Narayanan et Sayash Kapoor dans leur nouveau livre, "AI Snake Oil". S’ils n’y arrivent pas toujours, les deux spécialistes nous aident à comprendre les défaillances de l’IA dans un livre qui mobilise la science pour qu’elle nous aide à éclairer le chemin critique qu’il reste à accomplir.
Si vous ne deviez lire qu’un seul livre traitant des intelligences artificielles, ce devrait sans doute être le "Contre-Atlas de l’Intelligence Artificielle" de la chercheuse australienne Kate Crawford. Cette enquête sur l’industrie de l’IA, très accessible même si vous n’êtes pas féru d’informatique, montre à quel point au-delà de la couche de marketing qui tente de rendre "magique" cette technologie, se jouent de nombreux rapports de force et de domination. Elle permet d’entamer une réflexion critique des algorithmes.
La question de la régulation de l’intelligence artificielle est majeure. Elle articule une variété de courants, des plus techno-optimistes, plaidant l’adaptation à un avenir déjà écrit, aux oppositions plus frontales aux technologies numériques et à la « civilisation industrielle » dans son ensemble. Entre les deux, on retrouve les approches régulationnistes, engageant à encadrer davantage le développement de l’IA dans un esprit de responsabilité. Un domaine en particulier est souvent mentionné dans ce champ : la « regulation by design » (RbD). Il s’agit en résumé, d’incorporer les régulations en vigueur à la conception des systèmes, ce qui ne va pas sans poser quelques questions.
Prévenir les canicules, gérer les feux... Les masses de données manipulées par l’intelligence artificielle peuvent être utiles à la transition. Mais l'outil, ultrapolluant, n'est pas un remède miracle à la crise climatique.
« Dire que l’IA va tout résoudre est un discours technosolutionniste »
Une nouvelle étude révèle que les hallucinations de grands modèles de langage (LLM) découlent de leurs structures mathématiques et logiques fondamentales. En augmentant la complexité et la capacité des modèles, il est possible de réduire la fréquence de ces hallucinations, mais il serait impossible de les éliminer complètement.
L'Autorité de la concurrence a décidé, le 8 février 2024, de s'autosaisir pour avis sur le fonctionnement concurrentiel du secteur de l'IA générative et de lancer une consultation publique, lui permettant de collecter le point de vue d’une quarantaine d’acteurs et d’une dizaine d’associations d’acteurs.
Cet avis se concentre plus particulièrement sur les stratégies mises en place par les grands acteurs du numérique visant à consolider leur pouvoir de marché à l’amont de la chaîne de valeur de l’IA générative, c’est-à-dire dans la conception, l’entraînement et la spécialisation des grands modèles de langage ou à tirer parti de ce pouvoir de marché pour se développer dans ce secteur en plein essor.
Elle n’aborde par conséquent qu’à titre incident les pratiques des acteurs à l’aval de la chaîne de valeur, c’est-à-dire au contact du consommateur final, et pas du tout les conséquences de l’IA pour le fonctionnement concurrentiel de l’ensemble de l’économie – question d’importance majeure et qui méritera des analyses ultérieures.
Depuis 2022, les intelligences artificielles génératives s’imposent à la planète numérique. En animant les unes des journaux et les débats en ligne, ces fantasmes dystopiques masquent la leçon la plus spectaculaire que nous donne l’IA : notre culture est profondément inégalitaire et structurée autour de représentations biaisées, construites par l’histoire et les dominations. Si les IA génératives d’images traduisent et amplifient ces discriminations sociales, c’est principalement à cause des préjugés qui structurent les données d’entrainement des algorithmes. Mais l’inégalité se situe aussi dans l’usage de ces technologies en apparence élémentaire.
Pleine de promesses ou porteuse d’inquiétudes, l’Intelligence Artificielle (IA) est sur toutes les lèvres et ne cesse d’envahir les titres des journaux. Mais derrière les vagues de spéculation, elle incarne surtout le prolongement d’un capitalisme numérique qui pousse toujours plus loin l’exploitation écologique et humaine.
Si les IA et les logiques algorithmiques des grandes plateformes peuvent intervenir sur le débat public, les tensions qui traversent les processus de délibération ne naissent pas forcément du numérique. C’est ce que développe Salomé Frémineur, chargée de cours invitée en philosophie à l’ULB, l’UMONS et à l’Université de Namur qui étudie le rôle du langage dans la politique. Elle s’est notamment penchée sur les processus de délibération et sur ce qui pouvait fonder et animer des espaces de discussions publiques. Comment les IA (et les fantasmes qu’on peut nourrir sur elles) travaillent-elles des processus démocratiques ?
N’étant pas juriste, c’est avec prudence et humilité que je vous partage la réflexion suivante. Comment est-ce possible qu’on laisse encore des entreprises privées lancer ce qu’il faut bien appeler des expérimentations à grande échelle, sans dispositif de contrôle, sur des produits aussi potentiellement dangereux que des programmes d’intelligence artificielle comme ChatGPT ? Alors que de l’aveu même de nombreux chercheurs en pointe dans le domaine, « on ne sait pas encore pourquoi ça marche aussi bien ».
Une note de veille et de ressources sur les IA génératives, alors que l'excitation post-ChatGPT est encore bien vive.
Souhaitant partager les travaux et débats conduits lors de l’évènement de novembre 2023, la CNIL publie aujourd’hui le cahier air2023 « IA et libre arbitre : sommes-nous des moutons numériques ? », qui reprend les grands axes de l’évènement :
- L’IA au quotidien : comment faire pour que l’intelligence artificielle soit au service de nos vies ?
- L’art de l’artifice : comment mettre l’IA au service de la créativité ?
- L’IA et les mutations au travail : comment l’IA peut-elle être mise au service du marché de l’emploi, des entreprises et des travailleurs ?
Ce cahier s’adresse à tous, qu’il s’agisse du grand public – premier concerné par les transformations apportées par l’IA, des professionnels mettant en place des solutions innovantes, des chercheurs, ou encore des pouvoirs publics.
Class'Code IAI est un MOOC citoyen accessible à toutes et à tous de 7 à 107 ans pour se questionner, expérimenter et comprendre ce qu’est l’Intelligence Artificielle.
À la fin de ce cours, vous saurez :
- décrypter le discours autour de l'IA pour passer des idées reçues à des questions sur lesquelles s'appuyer pour comprendre,
- manipuler des programmes d'IA pour se faire une opinion par soi-même,
- partager une culture minimale sur le sujet, pour se familiariser avec le sujet au-delà des idées reçues,
- discuter le sujet, ses applications, son cadre avec des interlocuteurs variés pour contribuer à la construction des applications de l’IA
Arrêtée en 2019, la centrale nucléaire américaine de Three Mile Island en Pennsylvanie reprend du service. La raison ? Microsoft souhaite exploiter l'énergie produite par l'un des réacteurs – l'unité 1 – pour alimenter ses centres de données aux Etats-Unis.
L’intelligence artificielle (IA) est-elle davantage un remède qu’un poison climatique ? Les géants de la tech, de Google à Microsoft, le clament haut et fort : les apports de ces technologies pour décarboner les économies et s’adapter au réchauffement seront à terme majeurs. A l’inverse, nombre d’experts préviennent que ces gains restent hypothétiques. L’empreinte carbone et la consommation électrique de services comme ChatGPT, d’ores et déjà importantes, risquent de devenir colossales. Ils appellent à la mesure face à une solution « utile » mais pas « miracle ».
Face à des gourous de la tech qui promettent une créativité et une productivité débordantes, au-delà des possibilités humaines, des chercheurs réunis en colloque avant l’été à Paris-8 ont rappelé que ces technologies numériques sont des dispositifs de calculs qui génèrent des contenus grâce à l’indexation de données. Ils n’apprennent pas et n’inventent pas. Petit tour d’horizon de ce que la recherche universitaire comprend de ces intelligences artificielles génératives.
L'État de la situation sur les impacts sociétaux de l'intelligence artificielle et du numérique fait état des connaissances actuelles sur les impacts sociétaux de l'IA et du numérique, structurées autour des sept axes de recherche de l'Obvia : santé, éducation, travail et emploi, éthique et gouvernance, droit, arts et médias, et transition socio-écologique. Hypertrucages, désinformation, empreinte environnementale, droit d'auteur, évolution des conditions de travail, etc.
Le document recense les grandes questions de recherche soulevées par le déploiement progressif de ces nouvelles technologies, auxquelles viennent s'ajouter des cas d'usages et de pistes d'action. Il s'impose ainsi comme un outil complet et indispensable pour accompagner la prise de décision dans tous les secteurs bouleversés par ces changements.
Selon OpenAI, son chatbot peut désormais tenir des discussions fluides à l’oral et « lire » les émotions de ses utilisateurs. Une innovation qui intervient alors que l’usage de l’intelligence artificielle générative à des fins thérapeutiques se répand, soulevant des interrogations chez les professionnels de santé.
Selon des tests réalisés pour l’autorité australienne de régulation des entreprises, la Securities and Investments Commission (ASIC), l’intelligence artificielle produit de moins bons résultats que les humains dans toutes les tâches de résumé. Au point que ces technologies pourraient créer du travail supplémentaire plutôt qu’en enlever.
L’écoconception des équipements et services numériques fait partie des leviers identifiés pour inverser la tendance en réduisant l’empreinte environnementale du numérique. Ce terme désigne « l’intégration des caractéristiques environnementales dans la conception du produit en vue d’améliorer la performance environnementale du produit tout au long de son cycle de vie ».
Le référentiel général de l’écoconception des services numériques est un document technique destiné aux experts et métiers du numérique souhaitant mettre en œuvre une démarche d’écoconception pour un service(sites, applications, IA, logiciels, API). Il a été élaboré par l’Arcep et l’Arcom, en collaboraiton avec l’ADEME, la DINUM, la CNIL et l’Inria.