3 liens privés
Les expressions se multiplient autour de l'intelligence artificielle. Mais qu’est-ce qu’une injection de prompt ? Et une attaque adverse ?
Quand on parle d’intelligence artificielle, en particulier générative, les nouvelles expressions sont nombreuses. Dans cette édition de notre lexique de l’IA, penchons-nous sur celles qui qualifient les attaques, déjà variées, qui visent à fragiliser les modèles d’apprentissage machine ou à contourner diverses restrictions implémentées par les constructeurs.
Qu’est-ce qu’un neurone artificiel ? Et quelle différence entre une hallucination humaine et celle d’une machine ?
Au gré de nos articles sur l’intelligence artificielle, nous utilisons à loisir tout un vocabulaire qui, s’il est souvent tiré d’activités humaines, qualifie bien des éléments spécifiques au champ informatique. Après avoir décortiqué une partie des expressions génériques qui qualifient certains champs et sous-champs du domaine, intéressons-nous donc au fonctionnement plus précis des systèmes d’IA.
Quand on parle d'Intelligence artificielle on mobilise un terme qui qualifie un ensemble de technologies vaguement reliées, expliquent les chercheurs Arvind Narayanan et Sayash Kapoor dans leur nouveau livre, "AI Snake Oil". S’ils n’y arrivent pas toujours, les deux spécialistes nous aident à comprendre les défaillances de l’IA dans un livre qui mobilise la science pour qu’elle nous aide à éclairer le chemin critique qu’il reste à accomplir.
Si vous ne deviez lire qu’un seul livre traitant des intelligences artificielles, ce devrait sans doute être le "Contre-Atlas de l’Intelligence Artificielle" de la chercheuse australienne Kate Crawford. Cette enquête sur l’industrie de l’IA, très accessible même si vous n’êtes pas féru d’informatique, montre à quel point au-delà de la couche de marketing qui tente de rendre "magique" cette technologie, se jouent de nombreux rapports de force et de domination. Elle permet d’entamer une réflexion critique des algorithmes.
Une nouvelle étude révèle que les hallucinations de grands modèles de langage (LLM) découlent de leurs structures mathématiques et logiques fondamentales. En augmentant la complexité et la capacité des modèles, il est possible de réduire la fréquence de ces hallucinations, mais il serait impossible de les éliminer complètement.
L'Autorité de la concurrence a décidé, le 8 février 2024, de s'autosaisir pour avis sur le fonctionnement concurrentiel du secteur de l'IA générative et de lancer une consultation publique, lui permettant de collecter le point de vue d’une quarantaine d’acteurs et d’une dizaine d’associations d’acteurs.
Cet avis se concentre plus particulièrement sur les stratégies mises en place par les grands acteurs du numérique visant à consolider leur pouvoir de marché à l’amont de la chaîne de valeur de l’IA générative, c’est-à-dire dans la conception, l’entraînement et la spécialisation des grands modèles de langage ou à tirer parti de ce pouvoir de marché pour se développer dans ce secteur en plein essor.
Elle n’aborde par conséquent qu’à titre incident les pratiques des acteurs à l’aval de la chaîne de valeur, c’est-à-dire au contact du consommateur final, et pas du tout les conséquences de l’IA pour le fonctionnement concurrentiel de l’ensemble de l’économie – question d’importance majeure et qui méritera des analyses ultérieures.
Depuis 2022, les intelligences artificielles génératives s’imposent à la planète numérique. En animant les unes des journaux et les débats en ligne, ces fantasmes dystopiques masquent la leçon la plus spectaculaire que nous donne l’IA : notre culture est profondément inégalitaire et structurée autour de représentations biaisées, construites par l’histoire et les dominations. Si les IA génératives d’images traduisent et amplifient ces discriminations sociales, c’est principalement à cause des préjugés qui structurent les données d’entrainement des algorithmes. Mais l’inégalité se situe aussi dans l’usage de ces technologies en apparence élémentaire.
Pleine de promesses ou porteuse d’inquiétudes, l’Intelligence Artificielle (IA) est sur toutes les lèvres et ne cesse d’envahir les titres des journaux. Mais derrière les vagues de spéculation, elle incarne surtout le prolongement d’un capitalisme numérique qui pousse toujours plus loin l’exploitation écologique et humaine.
Si les IA et les logiques algorithmiques des grandes plateformes peuvent intervenir sur le débat public, les tensions qui traversent les processus de délibération ne naissent pas forcément du numérique. C’est ce que développe Salomé Frémineur, chargée de cours invitée en philosophie à l’ULB, l’UMONS et à l’Université de Namur qui étudie le rôle du langage dans la politique. Elle s’est notamment penchée sur les processus de délibération et sur ce qui pouvait fonder et animer des espaces de discussions publiques. Comment les IA (et les fantasmes qu’on peut nourrir sur elles) travaillent-elles des processus démocratiques ?
Une note de veille et de ressources sur les IA génératives, alors que l'excitation post-ChatGPT est encore bien vive.
Souhaitant partager les travaux et débats conduits lors de l’évènement de novembre 2023, la CNIL publie aujourd’hui le cahier air2023 « IA et libre arbitre : sommes-nous des moutons numériques ? », qui reprend les grands axes de l’évènement :
- L’IA au quotidien : comment faire pour que l’intelligence artificielle soit au service de nos vies ?
- L’art de l’artifice : comment mettre l’IA au service de la créativité ?
- L’IA et les mutations au travail : comment l’IA peut-elle être mise au service du marché de l’emploi, des entreprises et des travailleurs ?
Ce cahier s’adresse à tous, qu’il s’agisse du grand public – premier concerné par les transformations apportées par l’IA, des professionnels mettant en place des solutions innovantes, des chercheurs, ou encore des pouvoirs publics.
Arrêtée en 2019, la centrale nucléaire américaine de Three Mile Island en Pennsylvanie reprend du service. La raison ? Microsoft souhaite exploiter l'énergie produite par l'un des réacteurs – l'unité 1 – pour alimenter ses centres de données aux Etats-Unis.
L’intelligence artificielle (IA) est-elle davantage un remède qu’un poison climatique ? Les géants de la tech, de Google à Microsoft, le clament haut et fort : les apports de ces technologies pour décarboner les économies et s’adapter au réchauffement seront à terme majeurs. A l’inverse, nombre d’experts préviennent que ces gains restent hypothétiques. L’empreinte carbone et la consommation électrique de services comme ChatGPT, d’ores et déjà importantes, risquent de devenir colossales. Ils appellent à la mesure face à une solution « utile » mais pas « miracle ».
Face à des gourous de la tech qui promettent une créativité et une productivité débordantes, au-delà des possibilités humaines, des chercheurs réunis en colloque avant l’été à Paris-8 ont rappelé que ces technologies numériques sont des dispositifs de calculs qui génèrent des contenus grâce à l’indexation de données. Ils n’apprennent pas et n’inventent pas. Petit tour d’horizon de ce que la recherche universitaire comprend de ces intelligences artificielles génératives.
L'État de la situation sur les impacts sociétaux de l'intelligence artificielle et du numérique fait état des connaissances actuelles sur les impacts sociétaux de l'IA et du numérique, structurées autour des sept axes de recherche de l'Obvia : santé, éducation, travail et emploi, éthique et gouvernance, droit, arts et médias, et transition socio-écologique. Hypertrucages, désinformation, empreinte environnementale, droit d'auteur, évolution des conditions de travail, etc.
Le document recense les grandes questions de recherche soulevées par le déploiement progressif de ces nouvelles technologies, auxquelles viennent s'ajouter des cas d'usages et de pistes d'action. Il s'impose ainsi comme un outil complet et indispensable pour accompagner la prise de décision dans tous les secteurs bouleversés par ces changements.
Selon OpenAI, son chatbot peut désormais tenir des discussions fluides à l’oral et « lire » les émotions de ses utilisateurs. Une innovation qui intervient alors que l’usage de l’intelligence artificielle générative à des fins thérapeutiques se répand, soulevant des interrogations chez les professionnels de santé.
Selon des tests réalisés pour l’autorité australienne de régulation des entreprises, la Securities and Investments Commission (ASIC), l’intelligence artificielle produit de moins bons résultats que les humains dans toutes les tâches de résumé. Au point que ces technologies pourraient créer du travail supplémentaire plutôt qu’en enlever.
L’écoconception des équipements et services numériques fait partie des leviers identifiés pour inverser la tendance en réduisant l’empreinte environnementale du numérique. Ce terme désigne « l’intégration des caractéristiques environnementales dans la conception du produit en vue d’améliorer la performance environnementale du produit tout au long de son cycle de vie ».
Le référentiel général de l’écoconception des services numériques est un document technique destiné aux experts et métiers du numérique souhaitant mettre en œuvre une démarche d’écoconception pour un service(sites, applications, IA, logiciels, API). Il a été élaboré par l’Arcep et l’Arcom, en collaboraiton avec l’ADEME, la DINUM, la CNIL et l’Inria.
La pensée de Félix Guattari permet d’éclairer les coûts cachés des IA génératives, qui s’appuient sur un extractivisme pillant les ressources naturelles et culturelles.
Quelle que soit leur utilité potentielle, la généralisation de ces systèmes semble donc aller de pair avec un épuisement des ressources naturelles, au détriment des besoins fondamentaux des citoyens et de l’avenir de nos écosystèmes communs.
« Les entretiens de l’IA ». L’essayiste, activiste et auteur Cory Doctorow observe que « beaucoup d’investissements affluent chez les fabricants de modèles d’IA qui, souvent, perdent de l’argent ».
Selon Doctorow, l’IA est une bulle technologique en voie d’éclatement en raison du décalage existant entre les coûts engendrés et les revenus estimés. Cet entretien se réfère à une autre chronique de 2023 rédigée par l’essayiste américain : https://locusmag.com/2023/12/commentary-cory-doctorow-what-kind-of-bubble-is-ai/. Cory Doctorow précisait alors que dans le domaine de la tech, deux types de bulles coexistent : celles qui ne laissent place qu’aux dérives sociales, à la spéculation et à l’accumulation des richesses entre une poignée d’acteurs, et celles qui parviennent à faire émerger des dynamiques positives de long terme (partage de connaissances, création d’écosystèmes, etc.).