Quotidien Shaarli

Tous les liens d'un jour sur une page.

October 15, 2024

L'extrême droite a utilisé l'intelligence artificielle pour faire passer ses messages pendant la campagne | France Info
thumbnail

L'ONG AI Forensics révèle que les partis d'extrême droite ont utilisé l'IA pour propager leurs messages anti-immigration et anti-Europe pendant la campagne des européennes et des législatives.

Ces chercheurs indépendants ont analysé les contenus publiés en ligne par 38 partis et coalitions en France : textes, images, vidéos… Et leur constat, c'est que l'IA, bien qu'encore peu utilisée par les candidats dans leur ensemble, est principalement exploitée par l'extrême droite. L'impact de ces images sur les votes reste difficile à mesurer. Mais les chercheurs déplorent que les personnes voyant passer ces contenus ne semblent pas réaliser qu'ils ont été générés par l'IA.

Common Corpus : des textes du domaine public pour entrainer des IA (génératives) | Next
thumbnail

Une initiative internationale menée par la startup française Pleias propose un corpus de textes du domaine public permettant d'entrainer les IA génératives tout en respectant les lois régissant les droits d'auteur : Common Corpus. Pierre-Carl Langlais, co-fondateur de Pleias, nous parle de son projet.

Apocalypse Google | Arrêt sur images
thumbnail

Dites adieu au moteur de recherche que vous utilisez quotidiennement : en 2024, les IA de Google vont vous résumer le Web, que vous le vouliez ou non. Une automutilation technique qui reflète le pouvoir absolu du monopole Google.

Ce que Google vient de faire est caractéristique du mode opératoire actuel de la Silicon Valley - annoncer en grande pompe un futur parfaitement hypothétique, une usine à gaz sur laquelle la presse et le public s'empresseront de poser des yeux humides d'émerveillement, pour dissimuler des modifications structurelles, violentes, de nos écosystèmes informationnels, et neutraliser autant que possible leur analyse dans le champ social.

Training is not the same as chatting: ChatGPT and other LLMs don’t remember everything you say | Simon Willison’s Weblog

I’m beginning to suspect that one of the most common misconceptions about LLMs such as ChatGPT involves how “training” works. A common complaint I see about these tools is that people don’t want to even try them out because they don’t want to contribute to their training data. This is by no means an irrational position to take, but it does often correspond to an incorrect mental model about how these tools work.

Short version: ChatGPT and other similar tools do not directly learn from and memorize everything that you say to them.

Peut-on corriger les biais des algorithmes ? | Next
thumbnail

Les algorithmes sont pleins de biais, notamment sociaux, plus ou moins inquiétants. Les cas de biais algorithmiques aux effets inquiétants sur la société se multiplient. Et malgré la conscience croissante du problème, la multiplication de systèmes dits d’« intelligence artificielle » (IA) ne montre pas le moindre signe de ralentissement. Quels sont les outils à disposition, dans ce cas, pour éviter que ces machines ne nuisent à différents segments de la population ? Et dans quelle mesure fonctionnent-ils ? Qu’implique le fait de vouloir les corriger ?

How People Are Really Using GenAI | Harvard Business Review

There are many use cases for generative AI, spanning a vast number of areas of domestic and work life. Looking through thousands of comments on sites such as Reddit and Quora, the author’s team found that the use of this technology is as wide-ranging as the problems we encounter in our lives. The 100 categories they identified can be divided into six top-level themes, which give an immediate sense of what generative AI is being used for: Technical Assistance & Troubleshooting (23%), Content Creation & Editing (22%), Personal & Professional Support (17%), Learning & Education (15%), Creativity & Recreation (13%), Research, Analysis & Decision Making (10%).

Monopoly : la bulle éclate | Arrêt sur images
thumbnail

Alors que les signes de l'éclatement de la bulle financière de l'IA s'amoncellent, le marché continue de dépenser comme jamais. Le signe d'un régime politique et économique délirant, dans lequel une poignée de monopoles s'exonère de la rationalité.

Une bulle d’intelligence artificielle et de stupidité naturelle | Blog de Ploom
thumbnail

La technologie derrière ChatGPT, Dall-E et autres n’est pas révolutionnaire, elle est spectaculaire. C’est très différent. Et, comme souvent, le spectaculaire attire une attention démesurée du grand public par rapport aux capacités réelles de la technologie. C’est ce qu’on appelle « une bulle ». Et une bulle, ça finit toujours par imploser.

B.a.bIA #1 : AGI, GPAI, modèles de fondation… de quoi on parle ? | Next
thumbnail

Que signifient AGI (intelligence artificielle générale) ? Frontier AI ? modèle de fondation ? general purpose AI ? Tentatives de définition.

Sortir du vertige des IA avec Kate Crawford | Agir par la culture
thumbnail

Si vous ne deviez lire qu’un seul livre trai­tant des intel­li­gences arti­fi­cielles, ce devrait sans doute être le "Contre-Atlas de l’Intelligence Arti­fi­cielle" de la cher­cheuse aus­tra­lienne Kate Craw­ford. Cette enquête sur l’industrie de l’IA, très acces­sible même si vous n’êtes pas féru d’informatique, montre à quel point au-delà de la couche de mar­ke­ting qui tente de rendre "magique" cette technologie, se jouent de nombreux rapports de force et de domination. Elle permet d’entamer une réflexion critique des algorithmes.

AI machines aren’t ‘hallucinating’. But their makers are - Naomi Klein | The Guardian
thumbnail

Tech CEOs want us to believe that generative AI will benefit humanity. They are kidding themselves.

Why call the errors “hallucinations” at all? Why not algorithmic junk? Or glitches? Well, hallucination refers to the mysterious capacity of the human brain to perceive phenomena that are not present, at least not in conventional, materialist terms. By appropriating a word commonly used in psychology, psychedelics and various forms of mysticism, AI’s boosters, while acknowledging the fallibility of their machines, are simultaneously feeding the sector’s most cherished mythology: that by building these large language models, and training them on everything that we humans have written, said and represented visually, they are in the process of birthing an animate intelligence on the cusp of sparking an evolutionary leap for our species.

IA, est-ce seulement souhaitable ? - Le Mouton numérique | Agir par la culture
thumbnail

Pleine de pro­messes ou por­teuse d’inquiétudes, l’Intelligence Arti­fi­cielle (IA) est sur toutes les lèvres et ne cesse d’envahir les titres des jour­naux. Mais der­rière les vagues de spé­cu­la­tion, elle incarne sur­tout le pro­lon­ge­ment d’un capi­ta­lisme numé­rique qui pousse tou­jours plus loin l’exploitation éco­lo­gique et humaine. 

IA : lancements à grande échelle partout, contrôle démocratique nulle part | Louis Derrac
thumbnail

N’étant pas juriste, c’est avec prudence et humilité que je vous partage la réflexion suivante. Comment est-ce possible qu’on laisse encore des entreprises privées lancer ce qu’il faut bien appeler des expérimentations à grande échelle, sans dispositif de contrôle, sur des produits aussi potentiellement dangereux que des programmes d’intelligence artificielle comme ChatGPT ? Alors que de l’aveu même de nombreux chercheurs en pointe dans le domaine, « on ne sait pas encore pourquoi ça marche aussi bien ».

IA générative : Microsoft relance la centrale nucléaire de Three Mile Island pour alimenter ses data centers | Usine Digitale
thumbnail

Arrêtée en 2019, la centrale nucléaire américaine de Three Mile Island en Pennsylvanie reprend du service. La raison ? Microsoft souhaite exploiter l'énergie produite par l'un des réacteurs – l'unité 1 – pour alimenter ses centres de données aux Etats-Unis.

Les IA génératives sont-elles vraiment «intelligentes» ? | Libération
thumbnail

Face à des gourous de la tech qui promettent une créativité et une productivité débordantes, au-delà des possibilités humaines, des chercheurs réunis en colloque avant l’été à Paris-8 ont rappelé que ces technologies numériques sont des dispositifs de calculs qui génèrent des contenus grâce à l’indexation de données. Ils n’apprennent pas et n’inventent pas. Petit tour d’horizon de ce que la recherche universitaire comprend de ces intelligences artificielles génératives.

Comment l’IA bouscule le milieu de la santé mentale : « Plutôt que de payer une nouvelle séance chez le psy, j’allais sur ChatGPT » | Le Monde
thumbnail

Selon OpenAI, son chatbot peut désormais tenir des discussions fluides à l’oral et « lire » les émotions de ses utilisateurs. Une innovation qui intervient alors que l’usage de l’intelligence artificielle générative à des fins thérapeutiques se répand, soulevant des interrogations chez les professionnels de santé.

L’intelligence artificielle est une bulle : il y a un décalage entre les coûts, très importants, et les revenus potentiels - Cory Doctorow | Le Monde
thumbnail

« Les entretiens de l’IA ». L’essayiste, activiste et auteur Cory Doctorow observe que « beaucoup d’investissements affluent chez les fabricants de modèles d’IA qui, souvent, perdent de l’argent ».

Selon Doctorow, l’IA est une bulle technologique en voie d’éclatement en raison du décalage existant entre les coûts engendrés et les revenus estimés. Cet entretien se réfère à une autre chronique de 2023 rédigée par l’essayiste américain : https://locusmag.com/2023/12/commentary-cory-doctorow-what-kind-of-bubble-is-ai/. Cory Doctorow précisait alors que dans le domaine de la tech, deux types de bulles coexistent : celles qui ne laissent place qu’aux dérives sociales, à la spéculation et à l’accumulation des richesses entre une poignée d’acteurs, et celles qui parviennent à faire émerger des dynamiques positives de long terme (partage de connaissances, création d’écosystèmes, etc.).

Les émissions carbone des centres de données des GAFAM seraient 662% plus élevées qu'elles le prétendent | Green.it
thumbnail

Les centres de données, ces infrastructures essentielles au fonctionnement de l’ère numérique, sont au cœur d’une controverse majeure. Selon une analyse récente, entre 2020 et 2022, les émissions de gaz à effet de serre des centres de données appartenant à des géants de la technologie comme Google, Microsoft, Meta et Apple étaient environ 662% plus élevées que ce qu’ils ont déclaré officiellement. Cette révélation soulève des questions cruciales sur la transparence et la responsabilité environnementale de ces entreprises.

Intelligence artificielle : définition et utilisation | Thèmes | Parlement européen
thumbnail

L’intelligence artificielle (IA) est en passe de devenir la « technologie clé de l’avenir ». Mais qu’entend-on exactement par « IA » et comment affecte-t-elle notre quotidien ?

IA et numérique : Vers un travail en micromiettes ? Entretien avec Antonio A. Casilli | Agir par la culture
thumbnail

Avec « En atten­dant les robots », le socio­logue Anto­nio A. Casilli s’attaque à l’un des prin­ci­paux mythes des socié­tés occi­den­tales contem­po­raines : le déve­lop­pe­ment sans frein de la tech­no­lo­gie va conduire à la dis­pa­ri­tion du tra­vail ; les humains sont condam­nés à être rem­pla­cés par des « intel­li­gences arti­fi­cielles ». Or, en se penchant sur l’arrière-cuisine du secteur numérique, Casilli montre à quel point ces intelligences dites artificielles sont en réalité « largement faites à la main », par une armée de réserve de l’industrie numérique composée de travailleurs et travailleuses précaires qui se tuent à la microtâche.

Des logiques algorithmiques au service du capital et contre la démocratie - Entretien avec Jonathan Durand Folco & Jonathan Martineau | Agir par la culture
thumbnail

On ne peut pas com­prendre le déve­lop­pe­ment phé­no­mé­nal des algo­rithmes aujourd’hui sans sai­sir les recon­fi­gu­ra­tions du capi­ta­lisme de ces 20 der­nières années. C’est ce que montrent deux ensei­gnant-cher­cheurs, Jona­than Mar­ti­neau et Jona­than Durand Fol­co, res­pec­ti­ve­ment à l’Université Concor­dia (Mont­réal) et à l’Université de Saint-Paul (Otta­wa) dans "Le capi­tal algo­rith­mique".

Ce livre développe en 20 thèses de quoi réfléchir de manière puissante, critique et multidimensionnelle les logiques algorithmiques et les intelligences artificielles qui bouleversent nos vies actuellement, le plus souvent au profit du marché. Selon eux, les changements techniques, économiques, sociaux et politiques sont tels que nous sommes passés à une nouvelle phase du capitalisme. Celui-ci, devenu algorithmique, affecte de multiples sphères de la société. Dont le fonctionnement de nos démocraties.

Après Microsoft, Google voit ses émissions de CO₂ bondir à cause de l’IA | Le Monde
thumbnail

En raison des besoins en calcul informatique de l’intelligence artificielle, le groupe a vu ses émissions de gaz à effet de serre augmenter de 13 % en un an et de 48 % en cinq ans. Celles-ci s’élèvent à 14,3 millions de tonnes équivalent CO2. La cause de cette flambée, qui va à rebours des objectifs climatiques du groupe américain ? L’explosion de l’intelligence artificielle (IA). Comme pour Microsoft, qui avait dû annoncer, mi-mai, un bond similaire de ses émissions, de 30 % en un an.

Intelligence Artificielle : L'inéluctable montée en puissance dans les médias | Aday
thumbnail

Tagaday, 1ère plateforme de veille médias, publie la deuxième édition de son Observatoire du traitement de l’intelligence artificielle dans les médias en France. Tagaday a mesuré la visibilité médiatique de l'IA et de ses grands secteurs sur la TV/radio, presse française et sites du web éditorial.

Une couverture médiatique en progression de 257% en 24 mois (2022-2024).
Avec 78% de part de voix en 2023 et 70% en 2024, ChatGPT est de loin l’intelligence artificielle la plus visible dans les médias.

Intelligence Artificielle et design d'interface : vers un design de la confiance ? | Graphisme et interactivité
thumbnail

Imaginons que dans un futur plus ou moins proche, il nous sera impossible de différencier le contenu créé par un humain du contenu créé par une IA. Dans les lectures, les écoutes musicales, les séries, les films, les photographies et tous les contenus pouvant être numériques il y aura un mélange entre ce qui est conçu humainement et par les IA.

Mais en attendant cela, j’imagine un monde numérique où les services, les médias, les sites Internet présenteront des options pour afficher ou non le contenu généré par IA et ainsi proposer aux utilisateurs, les différentes versions. Cela existe déjà sur les plateformes de vente d’images en ligne pour faire le tri entre les images générées et les images non générées.

Les LLM réduisent le partage des connaissances publiques sur les plateformes de questions-réponses en ligne | Developpez.com
thumbnail

Les grands modèles de langage réduisent le partage des connaissances publiques sur les plateformes de questions-réponses en ligne. L'impact de ChatGPT sur Stack Overflow en est le parfait exemple. Mais cette tendance représente un danger pour les modèles eux-mêmes : il y a moins de contenu valable pour former les LLM, qui finissent donc par s'auto-empoisonner. Une nouvelle étude lève le voile sur cette situation.

Cartography of generative AI 2024 | Estampa

The popularisation of artificial intelligence (AI) has given rise to imaginaries that invite alienation and mystification. At a time when these technologies seem to be consolidating, it is pertinent to map their connections with human activities and more than human territories. What set of extractions, agencies and resources allow us to converse online with a text-generating tool or to obtain images in a matter of seconds?

Les marques de technologie intégreraient de force l'IA dans vos gadgets, que vous l'ayez demandé ou non | Developpez.com
thumbnail

Les marques technologiques intègrent de plus en plus l'IA dans leurs gadgets, même si cette tendance soulève des questions quant à son utilité réelle. Logitech, par exemple, a récemment annoncé sa souris "IA", qui présente principalement un bouton supplémentaire pour lancer une fonctionnalité de génération de messages. Cependant, cette innovation semble minime par rapport aux précédents modèles de souris de la même marque. De même, Nothing propose une intégration de ChatGPT dans ses écouteurs, tandis que Microsoft a ajouté un bouton "Copilot" sur ses claviers, bien que la pertinence de ces ajouts soit discutable.

Ranked: The Most Popular AI Tools of 2023 | Visual Capitalist

Artificial intelligence had its breakout year in 2023, with large language models (LLMs) and text-to-image generators capturing the attention and imagination of technologists and investors alike.

B.a.bIA #3 : IA : Prompt injection, empoisonnement… de quoi on parle ? | Next
thumbnail

Les expressions se multiplient autour de l'intelligence artificielle. Mais qu’est-ce qu’une injection de prompt ? Et une attaque adverse ?

Quand on parle d’intelligence artificielle, en particulier générative, les nouvelles expressions sont nombreuses. Dans cette édition de notre lexique de l’IA, penchons-nous sur celles qui qualifient les attaques, déjà variées, qui visent à fragiliser les modèles d’apprentissage machine ou à contourner diverses restrictions implémentées par les constructeurs. 



Comprendre ce que l'IA sait faire et ce qu'elle ne peut pas faire | Dans les algorithmes
thumbnail

Quand on parle d'Intelligence artificielle on mobilise un terme qui qualifie un ensemble de technologies vaguement reliées, expliquent les chercheurs Arvind Narayanan et Sayash Kapoor dans leur nouveau livre, "AI Snake Oil". S’ils n’y arrivent pas toujours, les deux spécialistes nous aident à comprendre les défaillances de l’IA dans un livre qui mobilise la science pour qu’elle nous aide à éclairer le chemin critique qu’il reste à accomplir.

Intelligence artificielle et climat : quelques espoirs, beaucoup de pollutions | Reporterre
thumbnail

Prévenir les canicules, gérer les feux... Les masses de données manipulées par l’intelligence artificielle peuvent être utiles à la transition. Mais l'outil, ultrapolluant, n'est pas un remède miracle à la crise climatique.

« Dire que l’IA va tout résoudre est un discours technosolutionniste »

Intelligence artificielle générative : l’Autorité rend son avis sur le fonctionnement concurrentiel du secteur | Autorité de la concurrence

L'Autorité de la concurrence a décidé, le 8 février 2024, de s'autosaisir pour avis sur le fonctionnement concurrentiel du secteur de l'IA générative et de lancer une consultation publique, lui permettant de collecter le point de vue d’une quarantaine d’acteurs et d’une dizaine d’associations d’acteurs.

Cet avis se concentre plus particulièrement sur les stratégies mises en place par les grands acteurs du numérique visant à consolider leur pouvoir de marché à l’amont de la chaîne de valeur de l’IA générative, c’est-à-dire dans la conception, l’entraînement et la spécialisation des grands modèles de langage ou à tirer parti de ce pouvoir de marché pour se développer dans ce secteur en plein essor.

Elle n’aborde par conséquent qu’à titre incident les pratiques des acteurs à l’aval de la chaîne de valeur, c’est-à-dire au contact du consommateur final, et pas du tout les conséquences de l’IA pour le fonctionnement concurrentiel de l’ensemble de l’économie – question d’importance majeure et qui méritera des analyses ultérieures.

IA et démocratie : La technique ne peut pas résoudre les conflits politiques - Entretien avec Salomé Frémineur | Agir par la culture
thumbnail

Si les IA et les logiques algo­rith­miques des grandes pla­te­formes peuvent inter­ve­nir sur le débat public, les ten­sions qui tra­versent les pro­cessus de déli­bé­ra­tion ne naissent pas for­cé­ment du numé­rique. C’est ce que déve­loppe Salo­mé Fré­mi­neur, char­gée de cours invi­tée en phi­lo­so­phie à l’ULB, l’UMONS et à l’Université de Namur qui étu­die le rôle du lan­gage dans la politique. Elle s’est notamment penchée sur les processus de délibération et sur ce qui pouvait fonder et animer des espaces de discussions publiques. Comment les IA (et les fantasmes qu’on peut nourrir sur elles) travaillent-elles des processus démocratiques ?

L'Intelligence Artificielle... avec intelligence ! | FUN MOOC
thumbnail

Class'Code IAI est un MOOC citoyen accessible à toutes et à tous de 7 à 107 ans pour se questionner, expérimenter et comprendre ce qu’est l’Intelligence Artificielle.

À la fin de ce cours, vous saurez :

  • décrypter le discours autour de l'IA pour passer des idées reçues à des questions sur lesquelles s'appuyer pour comprendre,
  • manipuler des programmes d'IA pour se faire une opinion par soi-même,
  • partager une culture minimale sur le sujet, pour se familiariser avec le sujet au-delà des idées reçues,
  • discuter le sujet, ses applications, son cadre avec des interlocuteurs variés pour contribuer à la construction des applications de l’IA
État 2024 de la situation sur les impacts sociétaux de l'intelligence artificielle et du numérique | Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA)
thumbnail

L'État de la situation sur les impacts sociétaux de l'intelligence artificielle et du numérique fait état des connaissances actuelles sur les impacts sociétaux de l'IA et du numérique, structurées autour des sept axes de recherche de l'Obvia : santé, éducation, travail et emploi, éthique et gouvernance, droit, arts et médias, et transition socio-écologique. Hypertrucages, désinformation, empreinte environnementale, droit d'auteur, évolution des conditions de travail, etc.

Le document recense les grandes questions de recherche soulevées par le déploiement progressif de ces nouvelles technologies, auxquelles viennent s'ajouter des cas d'usages et de pistes d'action. Il s'impose ainsi comme un outil complet et indispensable pour accompagner la prise de décision dans tous les secteurs bouleversés par ces changements.

Les trois écologies à l’épreuve de l’intelligence artificielle | Chut!
thumbnail

La pensée de Félix Guattari permet d’éclairer les coûts cachés des IA génératives, qui s’appuient sur un extractivisme pillant les ressources naturelles et culturelles.

Quelle que soit leur utilité potentielle, la généralisation de ces systèmes semble donc aller de pair avec un épuisement des ressources naturelles, au détriment des besoins fondamentaux des citoyens et de l’avenir de nos écosystèmes communs.

Un référentiel pour mesurer et réduire l’impact environnemental de l’IA | AFNOR
thumbnail

Les systèmes sollicitant une intelligence artificielle (IA) consomment de l’énergie et des ressources pour fonctionner. Mais concevoir des IA qui consomment le moins possible, c’est prendre le risque de subir l’effet rebond : quand l’efficience d’une IA la rend moins coûteuse et plus facile à embarquer, son utilisation peut augmenter… et son impact environnemental avec ! Initiative du ministère de la Transition écologique et de la cohésion des territoires, l’AFNOR Spec 2314 énonce des méthodologies de calcul et des bonnes pratiques pour mesurer et réduire l’impact environnemental de l’IA, et pour communiquer avec des allégations justes et vérifiables.

The Environmental Impacts of AI - Sasha Luccioni on Hugging Face
thumbnail

Artificial intelligence (AI) has an environmental cost. Beginning with the extraction of raw materials and the manufacturing of AI infrastructure, and culminating in real-time interactions with users, every aspect of the AI lifecycle consumes natural resources – energy, water, and minerals – and releases greenhouse gases. The amount of energy needed to power AI now outpaces what renewable energy sources can provide, and the rapidly increasing usage of AI portends significant environmental consequences. The goal of this primer is to shed light on the environmental impacts of the full AI lifecycle, describing which kinds of impacts are at play when, and why they matter.

Objectif IA : initiez-vous à l'intelligence artificielle | OpenClassrooms
thumbnail

Dans ce cours, vous découvrirez ce que recouvre vraiment l'intelligence artificielle : ses enjeux, ses possibilités, son fonctionnement scientifique ainsi que ses sous-disciplines, comme le Machine Learning et le Deep Learning.

Et si l’automatisation des recrutements répondait à l’automatisation des candidatures ? Hubert Guillaud sur LinkedIn
thumbnail

Vous vous souvenez ? En conclusion de notre dossier sur le recrutement automatisé, on évoquait la possibilité prochaine qu’à l’automatisation des recrutements répondent l’automatisation des candidatures. Eh bien nous y sommes, explique 404media en évoquant AIHawk, un assistant de recherche d’emploi déposé sur Github, qui permet de postuler à des emplois sur LinkedIn à grande échelle.

Quelle place donner à l’intelligence artificielle ? | Agir par la culture
thumbnail

Tant la figure de l’algorithme que celle de l’intelligence arti­fi­cielle (IA) béné­fi­cient d’une popu­la­ri­té sans pareille dans les médias. Cet engouement est d’autant plus sur­pre­nant en regard de la tech­ni­ci­té de ce thème. Mal­heu­reu­se­ment, ce trai­te­ment média­tique relègue sou­vent l’analyse du sujet à des consi­dé­ra­tions tech­niques au détri­ment de ses dimen­sions sociales. Pourtant, si ces artefacts informatiques étranges méritent bien d’être questionnés au sein de l’espace public, c’est pour l’influence qu’ils peuvent exercer aujourd’hui sur nos modes de vie et nos opportunités de faire société. Lorsque l’on parle à la fois d’influence et d’IA, c’est la thématique des « biais algorithmiques » qui fait généralement les gros titres. À travers cet article, nous allons essayer d’insérer un peu de nuance dans ce débat sans pour autant négliger certaines technicités.

L’intelligence artificielle peut-elle être l’alliée des démocraties ? | Usbek & Rica
thumbnail

Après un Tribunal pour les Générations Futures organisé en novembre 2023 autour du rôle des cultures autochtones dans la préservation du vivant, Usbek & Rica et le Bureau Français de Taipei poursuivent leur exploration des grands enjeux d’avenir en interrogeant l’impact de l’intelligence artificielle sur la démocratie. Alors que plus de la moitié de la population mondiale est appelée aux urnes en 2024, l’intelligence artificielle peut-elle protéger la démocratie des maux qui la menacent, ou risque-t-elle de signer sa perte ? L’intelligence artificielle peut-elle inaugurer un nouvel âge de la démocratie, en facilitant l’expression et la représentation des citoyens dans l’élaboration des politiques publiques ?

L’IA, nouvel opium du peuple démocratique, voire fin de la démocratie ? | Le Club Mediapart
thumbnail

L’intelligence artificielle est appelée à s’immiscer dans la majeure partie de nos interactions numériques. Avec sa capacité à produire instantanément un « baratin » plausible adapté aux préférences de chacun, quels sont les risques que l’intelligence fausse nos interactions sociales, voire mine nos démocraties ?

Avec une capacité à construire des textes, des images, des vidéos – bref des réalités alternatives – l'IA ne va pas seulement développer des univers parallèles, elle va façonner le réel. En effet, les humains sont des êtres qui imaginent le monde avant de le vivre. Qui contrôle les imaginaires, oriente les humains.

Dans cette perspective, les IA et ceux qui les contrôlent sont en passe d’affecter de façon majeure la formation de l’opinion, et donc d’orienter la volonté des peuples en construisant des narrations massivement diffusées.

Sondage exclusif : les priorités des Français sur l’usage de l’intelligence artificielle | Acteurs Publics
thumbnail

L’utilisation de l’intelligence artificielle par l’administration est connue de 46 % des Français et les trois quarts d’entre eux se disent préoccupés par cet usage, selon l’enquête Acteurs publics/EY pour l’Observatoire des politiques publiques réalisée par l’Ifop.

Classée 6e mondiale selon l’indice de préparation des administrations à l’IA en 2023 (étude Oxford Insights), la France se distingue par son adoption proactive de l’IA pour transformer ses services. Dans son rapport “IA et action publique” publié en 2022, le Conseil d’État avait déjà répertorié des centaines de cas d’usage où l’IA améliore les opérations, les prises de décision et les relations aux citoyens. Depuis, le nombre des applications IA a considérablement augmenté et s’est ancré dans les pratiques. Nous observons également que les projets IA améliorent indirectement de nombreux autres aspects du fonctionnement des administrations : approches plus agiles, itératives et collaboratives, harmonisation des pratiques ou encore digitalisation de fonctions traditionnellement moins digitales.

Stanford pointe le manque de transparence dans les grands modèles d’intelligence artificielle | Next
thumbnail

Alors que les travaux se multiplient pour réguler le domaine de l'intelligence artificielle, l'équipe du Centre de recherche sur les modèles de fondation de Stanford dévoile un index d'analyse de la transparence des modèles d'IA généralistes. Résultat de la toute première analyse : tout le monde peut (largement) mieux faire.

Selon une étude menée par Rishi Bommasani et plusieurs autres chercheurs du Center for Research on Foundation Models (CRFM) de l’Institute for Human-Centered Artificial Intelligence (HAI) de Stanford, ni Meta, ni Hugging Face, ni Open AI (qui contient pourtant le mot « open » dans son nom) ni Google n’explosent les scores en matière de transparence de leurs modèles de fondation. Selon les scientifiques, ils sont même de moins en moins transparents.

Comment évaluer les bénéfices nets des solutions d’IA pour l’environnement ?  | Interstices
thumbnail

L’intelligence artificielle (IA) est aujourd’hui souvent considérée comme un des outils à utiliser pour résoudre les problèmes environnementaux. En particulier, elle pourrait permettre de réduire les émissions de gaz à effet de serre (GES) dans plusieurs secteurs comme l'agriculture ou les transports. Mais la mise en place et l’utilisation de solutions basées sur l'IA peuvent nécessiter beaucoup d’énergie et d’équipements, qui ont eux aussi un impact sur l’environnement. Alors comment évaluer les bénéfices nets complets de telles solutions d’IA sur l’environnement ?

B.a.bIA #2 : Neurone, inférence, entraînement, hallucination… de quoi on parle ? | Next
thumbnail

Qu’est-ce qu’un neurone artificiel ? Et quelle différence entre une hallucination humaine et celle d’une machine ?

Au gré de nos articles sur l’intelligence artificielle, nous utilisons à loisir tout un vocabulaire qui, s’il est souvent tiré d’activités humaines, qualifie bien des éléments spécifiques au champ informatique. Après avoir décortiqué une partie des expressions génériques qui qualifient certains champs et sous-champs du domaine, intéressons-nous donc au fonctionnement plus précis des systèmes d’IA.

Éthique de l'intelligence artificielle : dans les enjeux de la « Regulation by design » par Irénée Régnauld sur LinkedIn
thumbnail

La question de la régulation de l’intelligence artificielle est majeure. Elle articule une variété de courants, des plus techno-optimistes, plaidant l’adaptation à un avenir déjà écrit, aux oppositions plus frontales aux technologies numériques et à la « civilisation industrielle » dans son ensemble. Entre les deux, on retrouve les approches régulationnistes, engageant à encadrer davantage le développement de l’IA dans un esprit de responsabilité. Un domaine en particulier est souvent mentionné dans ce champ : la « regulation by design » (RbD). Il s’agit en résumé, d’incorporer les régulations en vigueur à la conception des systèmes, ce qui ne va pas sans poser quelques questions.

Les LLM IA auront toujours des hallucinations, et nous devons nous en accommoder | Developpez.com
thumbnail

Une nouvelle étude révèle que les hallucinations de grands modèles de langage (LLM) découlent de leurs structures mathématiques et logiques fondamentales. En augmentant la complexité et la capacité des modèles, il est possible de réduire la fréquence de ces hallucinations, mais il serait impossible de les éliminer complètement.

Les IA rêvent-elles de patriarcat blanc ? | Agir par la culture
thumbnail

Depuis 2022, les intel­li­gences arti­fi­cielles géné­ra­tives s’imposent à la pla­nète numé­rique. En animant les unes des journaux et les débats en ligne, ces fantasmes dystopiques masquent la leçon la plus spectaculaire que nous donne l’IA : notre culture est profondément inégalitaire et structurée autour de représentations biaisées, construites par l’histoire et les dominations. Si les IA génératives d’images traduisent et amplifient ces discriminations sociales, c’est principalement à cause des préjugés qui structurent les données d’entrainement des algorithmes. Mais l’inégalité se situe aussi dans l’usage de ces technologies en apparence élémentaire.

Enjeux éthiques des IA génératives : séance de rattrapage | Mais où va le web ?
thumbnail

Une note de veille et de ressources sur les IA génératives, alors que l'excitation post-ChatGPT est encore bien vive.

Cahier air2023 « IA et libre-arbitre : sommes-nous des moutons numériques ? » | CNIL

Souhaitant partager les travaux et débats conduits lors de l’évènement de novembre 2023, la CNIL publie aujourd’hui le cahier air2023 « IA et libre arbitre : sommes-nous des moutons numériques ? », qui reprend les grands axes de l’évènement :

  • L’IA au quotidien : comment faire pour que l’intelligence artificielle soit au service de nos vies ?
  • L’art de l’artifice : comment mettre l’IA au service de la créativité ?
  • L’IA et les mutations au travail : comment l’IA peut-elle être mise au service du marché de l’emploi, des entreprises et des travailleurs ?

Ce cahier s’adresse à tous, qu’il s’agisse du grand public – premier concerné par les transformations apportées par l’IA, des professionnels mettant en place des solutions innovantes, des chercheurs, ou encore des pouvoirs publics.

Les promesses de l’IA grevées par un lourd bilan carbone | Le Monde
thumbnail

L’intelligence artificielle (IA) est-elle davantage un remède qu’un poison climatique ? Les géants de la tech, de Google à Microsoft, le clament haut et fort : les apports de ces technologies pour décarboner les économies et s’adapter au réchauffement seront à terme majeurs. A l’inverse, nombre d’experts préviennent que ces gains restent hypothétiques. L’empreinte carbone et la consommation électrique de services comme ChatGPT, d’ores et déjà importantes, risquent de devenir colossales. Ils appellent à la mesure face à une solution « utile » mais pas « miracle ».

L’IA générative ferait pire que les humains dans les tâches de résumé | Next

Selon des tests réalisés pour l’autorité australienne de régulation des entreprises, la Securities and Investments Commission (ASIC), l’intelligence artificielle produit de moins bons résultats que les humains dans toutes les tâches de résumé. Au point que ces technologies pourraient créer du travail supplémentaire plutôt qu’en enlever.

Référentiel général de l’écoconception des services numériques | Arcep
thumbnail

L’écoconception des équipements et services numériques fait partie des leviers identifiés pour inverser la tendance en réduisant l’empreinte environnementale du numérique. Ce terme désigne « l’intégration des caractéristiques environnementales dans la conception du produit en vue d’améliorer la performance environnementale du produit tout au long de son cycle de vie ».

Le référentiel général de l’écoconception des services numériques est un document technique destiné aux experts et métiers du numérique souhaitant mettre en œuvre une démarche d’écoconception pour un service(sites, applications, IA, logiciels, API). Il a été élaboré par l’Arcep et l’Arcom, en collaboraiton avec l’ADEME, la DINUM, la CNIL et l’Inria.

Une autre intelligence artificielle est possible, par Evgeny Morozov | Le Monde diplomatique
thumbnail

Les progrès de l'intelligence artificielle éblouissent mais interrogent : la technologie ne passe-t-elle pas à côté de l'essentiel ? Dans les années 1970, des informaticiens hippies rêvaient de machines qui aident à développer notre intelligence « naturelle » et notre rapport au monde.

Chercher à développer une économie socialisée de l’intelligence artificielle, n’est-ce pas encore capituler face à la Silicon Valley ? Une IA « communiste » ou « socialiste » doit-elle se limiter à décider qui détient et contrôle les données ou à modifier les modèles et les infrastructures informatiques ? Ne pourrait-elle être porteuse de transformations plus profondes ?

Au lieu de renforcer une approche actuelle fondée notamment sur des objectifs de productivité, Morozov appelle à mobiliser « l’éducation et la culture, les bibliothèques et les universités », afin « d’ouvrir à tous, sans considération de classe, d’ethnicité ni de genre, l’accès à des institutions et des technologies qui favorisent l’autonomie créatrice et permettent de réaliser pleinement ses capacités. »

IA : un impact environnemental conséquent mais toujours difficile à mesurer | Next
thumbnail

Trois chercheuses de la plateforme d'hébergement de projets d'IA Hugging Face, Sasha Luccioni, Bruna Trevelin et Margaret Mitchell ont rassemblé les connaissances disponibles actuellement à propos de l'impact de l'IA sur l'environnement. Elles constatent encore trop peu de transparence sur les besoins énergétiques de chaque application d'IA, elles parcourent l'ensemble des connaissances actuellement disponibles.

« Les IA déplacent le travail mais ne remplacent pas des emplois " - Entretien avec Juan Sebastian Carbonell | Agir par la culture

Selon de nom­breux dis­cours poli­tiques et média­tiques, les pro­messes des intel­li­gences arti­fi­cielles (IA), s’ajoutant aux autres outils visant à auto­ma­ti­ser le tra­vail, n’annonceraient rien de moins que la fin du tra­vail et la des­truc­tion de la plu­part des emplois à moyen terme. Le sociologue du travail et des relations professionnelles Juan Sebastian Carbonell, qui développe ses recherches à partir du point de vue du monde du travail, bat en brèche dans "Le futur du travail" ce scénario. Les IA, les robots, les machines ne remplacent en effet jamais complètement les travailleur·euses. Mais leur introduction modifie en revanche profondément les conditions dans lesquelles leur activité s’exerce. Souvent dans le sens d’une dégradation.

« Les algorithmes, un art de ne pas changer le monde » - Entretien avec Antoinette Rouvroy | Agir par la culture
thumbnail

Antoi­nette Rou­vroy, phi­lo­sophe et cher­cheuse en droit à l’Université de Namur, étu­die de longue date les enjeux poli­tiques et sociaux des algo­rithmes. Nous lui avons deman­dé de quelle manière les sys­tèmes d’intelligences arti­fi­cielles (IA) tra­vaillaient et trans­for­maient actuel­le­ment nos démo­cra­ties. Et le dan­ger des algo­rithmes, ou plu­tôt du « capi­ta­lisme sous sté­roïde algo­rith­mique », ne semble pas tant celui de perturber l’information des citoyen·nes ou même les élections. Mais, en flattant notre hyperindividualisme, ces processus nous fragmentent et court-circuitent ce qui fonde même les démocraties : le besoin et le désir de commun. Un moment constitutionnel pourrait bien constituer l’antidote à cette colonisation des esprits par le numérique marchand.