Hebdomadaire Shaarli

Tous les liens d'un semaine sur une page.

Semaine 42 (October 14, 2024)

Le risque fasciste de l’IA | Hubert Guillaud
thumbnail

Dan McQuillan est maître de conférence au département d’informatique de l’université Goldsmiths de Londres. Il est l’auteur de "Resisting AI, an anti-fascist approach to artificial intelligence" (Résister à l’IA, une approche anti-fasciste de l’IA, Bristol University Press, 2022, non traduit).

“L’IA est utilisée comme une forme de “Stratégie du choc“, dans laquelle le sentiment d’urgence généré par une technologie censée transformer le monde est utilisé comme une opportunité pour transformer les systèmes sociaux sans débat démocratique.” Quand l’IA est convoquée pour transformer l’hôpital et l’école, c’est une diversion qui vise à nous masquer leur effondrement sous les coups d’un désinvestissement massif. Or, l’IA ne comprend ni la médecine ni l’éducation. La seule chose que les grands modèles d’IA font très bien, c’est de transférer le contrôle aux grandes entreprises, et ce alors qu’aucun autre acteur n’a les moyens ou la puissance de traiter les données qu’elles savent traiter.

Nightshade, le logiciel qui « empoisonne » l'IA pour protéger les artistes | Siècle Digital
thumbnail

La création de Nightshade est révélatrice de l’inquiétude de nombre d’artistes et de créateurs de contenu face à la montée en puissance des IA génératives qui s’entraînent librement sur leurs œuvres. D’autant plus que, comme l’expliquent les chercheurs, « peu d’outils peuvent empêcher que leur contenu soit introduit dans un modèle d’IA générative contre leur volonté. Les listes d’exclusion ont été ignorées par les entraîneurs d’IA dans le passé et peuvent être facilement ignorées sans aucune conséquence ».

C’est pourquoi ils souhaitent mettre fin à cette « asymétrie de pouvoir » en incitant les fournisseurs d’IA générative à n’exploiter que les contenus non protégés par des droits d’auteur sous peine de voir leurs modèles d’apprentissage empoisonnés par Nightshade.

Actionable AI: The rise of Large Action Models | LeewayHertz
thumbnail

Discover how actionable AI empowers systems to understand human inputs and take proactive actions based on context and learned behaviors.

Think of LAMs as intelligent assistants who not only understand your requests but also take initiative to fulfill them. This unique ability to combine language understanding with autonomous action holds immense potential for transforming various aspects of our lives.

Signal's Meredith Whittaker: AI is fundamentally 'a surveillance technology' | TechCrunch
thumbnail

Why is it that so many companies that rely on monetizing the data of their users seem to be extremely hot on AI? If you ask Signal president Meredith Whittaker (and I did), she’ll tell you it’s simply because “AI is a surveillance technology.”

“It requires the surveillance business model; it’s an exacerbation of what we’ve seen since the late ’90s and the development of surveillance advertising. AI is a way, I think, to entrench and expand the surveillance business model,” she said.

These Women Warned Of AI's Dangers And Risks Long Before ChatGPT | Rolling Stone
thumbnail

Rumman Chowdhury, Timnit Gebru, Safiya Noble, Seeta Peña Gangadharan, and Joy Buolamwini open up about their artificial intelligence fears. Today the risks of artificial intelligence are clear — but the warning signs have been there all along.

Pour Yuval Noah Harari, les IA pourraient signer « la fin de l'histoire humaine » | Usbek & Rica
thumbnail

Dans une tribune publiée par le magazine Time, l’historien superstar Yuval Noah Harari craint que, grâce à leur maîtrise du langage, « les IA puissent nouer des relations intimes avec les gens et utiliser ce pouvoir pour changer leurs opinions et leurs visions du monde ». De quoi entrevoir, selon lui, « la fin potentielle de l'histoire humaine ».

L’IA doit rester au service des humains (collaborateurs et clients) | FredCavazza.net
thumbnail

Dans son article "AI Is a Language Microwave", l’auteur nous propose une analogie intéressante : l’IA générative est comme un four à micro-ondes, un ersatz de four traditionnel, facile à utiliser et très pratique, car il peut nous faire gagner du temps si l’on accepte de faire des concessions sur la qualité de cuisson (il ne fait que réchauffer, impossible de faire un grilled cheese sandwich). Une comparaison très judicieuse qui nous fait relativiser la pertinence des chatbots actuellement disponibles pour des marques et organisations qui ne peuvent se permettre de faire des concessions sur la qualité des contenus ou la proximité des échanges. [...] Non, l’IA générative n’est ni une solution miracle, ni une fatalité, c’est un outil informatique dont il faut apprendre à se servir correctement pour ne pas trahir les valeurs de votre marque ou dégrader l’expérience client.

De ces 3 jours à Biarritz, je retiens une certaine défiance des personnes avec lesquelles j’ai pu discuter vis-à-vis des promesses sur-réalistes des éditeurs qui essayent de nous faire croire que l’IA généraliste va résoudre tous nos problèmes. Oui, les marques et organisations doivent faire face à de nombreux défis, elles en sont conscientes, mais qui ne sont pas insurmontables, et qui vont nécessités d’autres outils et façons de travailler. L’IA doit être considérée comme ce qu’elle est : un outil informatique permettant d’améliorer la qualité et la réactivité, pas de se substituer à des professionnels qui ont, je le rappelle, une connaissance précieuse de leur métier et de leur secteur.

Après Microsoft, Google voit ses émissions de CO₂ bondir à cause de l’IA | Le Monde
thumbnail

En raison des besoins en calcul informatique de l’intelligence artificielle, le groupe a vu ses émissions de gaz à effet de serre augmenter de 13 % en un an et de 48 % en cinq ans. Celles-ci s’élèvent à 14,3 millions de tonnes équivalent CO2. La cause de cette flambée, qui va à rebours des objectifs climatiques du groupe américain ? L’explosion de l’intelligence artificielle (IA). Comme pour Microsoft, qui avait dû annoncer, mi-mai, un bond similaire de ses émissions, de 30 % en un an.

L’IA, nouvel opium du peuple démocratique, voire fin de la démocratie ? | Le Club Mediapart
thumbnail

L’intelligence artificielle est appelée à s’immiscer dans la majeure partie de nos interactions numériques. Avec sa capacité à produire instantanément un « baratin » plausible adapté aux préférences de chacun, quels sont les risques que l’intelligence fausse nos interactions sociales, voire mine nos démocraties ?

Avec une capacité à construire des textes, des images, des vidéos – bref des réalités alternatives – l'IA ne va pas seulement développer des univers parallèles, elle va façonner le réel. En effet, les humains sont des êtres qui imaginent le monde avant de le vivre. Qui contrôle les imaginaires, oriente les humains.

Dans cette perspective, les IA et ceux qui les contrôlent sont en passe d’affecter de façon majeure la formation de l’opinion, et donc d’orienter la volonté des peuples en construisant des narrations massivement diffusées.

Sondage exclusif : les priorités des Français sur l’usage de l’intelligence artificielle | Acteurs Publics
thumbnail

L’utilisation de l’intelligence artificielle par l’administration est connue de 46 % des Français et les trois quarts d’entre eux se disent préoccupés par cet usage, selon l’enquête Acteurs publics/EY pour l’Observatoire des politiques publiques réalisée par l’Ifop.

Classée 6e mondiale selon l’indice de préparation des administrations à l’IA en 2023 (étude Oxford Insights), la France se distingue par son adoption proactive de l’IA pour transformer ses services. Dans son rapport “IA et action publique” publié en 2022, le Conseil d’État avait déjà répertorié des centaines de cas d’usage où l’IA améliore les opérations, les prises de décision et les relations aux citoyens. Depuis, le nombre des applications IA a considérablement augmenté et s’est ancré dans les pratiques. Nous observons également que les projets IA améliorent indirectement de nombreux autres aspects du fonctionnement des administrations : approches plus agiles, itératives et collaboratives, harmonisation des pratiques ou encore digitalisation de fonctions traditionnellement moins digitales.

Cartography of generative AI 2024 | Estampa

The popularisation of artificial intelligence (AI) has given rise to imaginaries that invite alienation and mystification. At a time when these technologies seem to be consolidating, it is pertinent to map their connections with human activities and more than human territories. What set of extractions, agencies and resources allow us to converse online with a text-generating tool or to obtain images in a matter of seconds?

Les marques de technologie intégreraient de force l'IA dans vos gadgets, que vous l'ayez demandé ou non | Developpez.com
thumbnail

Les marques technologiques intègrent de plus en plus l'IA dans leurs gadgets, même si cette tendance soulève des questions quant à son utilité réelle. Logitech, par exemple, a récemment annoncé sa souris "IA", qui présente principalement un bouton supplémentaire pour lancer une fonctionnalité de génération de messages. Cependant, cette innovation semble minime par rapport aux précédents modèles de souris de la même marque. De même, Nothing propose une intégration de ChatGPT dans ses écouteurs, tandis que Microsoft a ajouté un bouton "Copilot" sur ses claviers, bien que la pertinence de ces ajouts soit discutable.

Ranked: The Most Popular AI Tools of 2023 | Visual Capitalist

Artificial intelligence had its breakout year in 2023, with large language models (LLMs) and text-to-image generators capturing the attention and imagination of technologists and investors alike.

Une bulle d’intelligence artificielle et de stupidité naturelle | Blog de Ploom
thumbnail

La technologie derrière ChatGPT, Dall-E et autres n’est pas révolutionnaire, elle est spectaculaire. C’est très différent. Et, comme souvent, le spectaculaire attire une attention démesurée du grand public par rapport aux capacités réelles de la technologie. C’est ce qu’on appelle « une bulle ». Et une bulle, ça finit toujours par imploser.

B.a.bIA #1 : AGI, GPAI, modèles de fondation… de quoi on parle ? | Next
thumbnail

Que signifient AGI (intelligence artificielle générale) ? Frontier AI ? modèle de fondation ? general purpose AI ? Tentatives de définition.

Sortir du vertige des IA avec Kate Crawford | Agir par la culture
thumbnail

Si vous ne deviez lire qu’un seul livre trai­tant des intel­li­gences arti­fi­cielles, ce devrait sans doute être le "Contre-Atlas de l’Intelligence Arti­fi­cielle" de la cher­cheuse aus­tra­lienne Kate Craw­ford. Cette enquête sur l’industrie de l’IA, très acces­sible même si vous n’êtes pas féru d’informatique, montre à quel point au-delà de la couche de mar­ke­ting qui tente de rendre "magique" cette technologie, se jouent de nombreux rapports de force et de domination. Elle permet d’entamer une réflexion critique des algorithmes.

AI machines aren’t ‘hallucinating’. But their makers are - Naomi Klein | The Guardian
thumbnail

Tech CEOs want us to believe that generative AI will benefit humanity. They are kidding themselves.

Why call the errors “hallucinations” at all? Why not algorithmic junk? Or glitches? Well, hallucination refers to the mysterious capacity of the human brain to perceive phenomena that are not present, at least not in conventional, materialist terms. By appropriating a word commonly used in psychology, psychedelics and various forms of mysticism, AI’s boosters, while acknowledging the fallibility of their machines, are simultaneously feeding the sector’s most cherished mythology: that by building these large language models, and training them on everything that we humans have written, said and represented visually, they are in the process of birthing an animate intelligence on the cusp of sparking an evolutionary leap for our species.

Les IA rêvent-elles de patriarcat blanc ? | Agir par la culture
thumbnail

Depuis 2022, les intel­li­gences arti­fi­cielles géné­ra­tives s’imposent à la pla­nète numé­rique. En animant les unes des journaux et les débats en ligne, ces fantasmes dystopiques masquent la leçon la plus spectaculaire que nous donne l’IA : notre culture est profondément inégalitaire et structurée autour de représentations biaisées, construites par l’histoire et les dominations. Si les IA génératives d’images traduisent et amplifient ces discriminations sociales, c’est principalement à cause des préjugés qui structurent les données d’entrainement des algorithmes. Mais l’inégalité se situe aussi dans l’usage de ces technologies en apparence élémentaire.

Enjeux éthiques des IA génératives : séance de rattrapage | Mais où va le web ?
thumbnail

Une note de veille et de ressources sur les IA génératives, alors que l'excitation post-ChatGPT est encore bien vive.

Cahier air2023 « IA et libre-arbitre : sommes-nous des moutons numériques ? » | CNIL

Souhaitant partager les travaux et débats conduits lors de l’évènement de novembre 2023, la CNIL publie aujourd’hui le cahier air2023 « IA et libre arbitre : sommes-nous des moutons numériques ? », qui reprend les grands axes de l’évènement :

  • L’IA au quotidien : comment faire pour que l’intelligence artificielle soit au service de nos vies ?
  • L’art de l’artifice : comment mettre l’IA au service de la créativité ?
  • L’IA et les mutations au travail : comment l’IA peut-elle être mise au service du marché de l’emploi, des entreprises et des travailleurs ?

Ce cahier s’adresse à tous, qu’il s’agisse du grand public – premier concerné par les transformations apportées par l’IA, des professionnels mettant en place des solutions innovantes, des chercheurs, ou encore des pouvoirs publics.

Les promesses de l’IA grevées par un lourd bilan carbone | Le Monde
thumbnail

L’intelligence artificielle (IA) est-elle davantage un remède qu’un poison climatique ? Les géants de la tech, de Google à Microsoft, le clament haut et fort : les apports de ces technologies pour décarboner les économies et s’adapter au réchauffement seront à terme majeurs. A l’inverse, nombre d’experts préviennent que ces gains restent hypothétiques. L’empreinte carbone et la consommation électrique de services comme ChatGPT, d’ores et déjà importantes, risquent de devenir colossales. Ils appellent à la mesure face à une solution « utile » mais pas « miracle ».

Comment l’IA bouscule le milieu de la santé mentale : « Plutôt que de payer une nouvelle séance chez le psy, j’allais sur ChatGPT » | Le Monde
thumbnail

Selon OpenAI, son chatbot peut désormais tenir des discussions fluides à l’oral et « lire » les émotions de ses utilisateurs. Une innovation qui intervient alors que l’usage de l’intelligence artificielle générative à des fins thérapeutiques se répand, soulevant des interrogations chez les professionnels de santé.

L’intelligence artificielle est une bulle : il y a un décalage entre les coûts, très importants, et les revenus potentiels - Cory Doctorow | Le Monde
thumbnail

« Les entretiens de l’IA ». L’essayiste, activiste et auteur Cory Doctorow observe que « beaucoup d’investissements affluent chez les fabricants de modèles d’IA qui, souvent, perdent de l’argent ».

Selon Doctorow, l’IA est une bulle technologique en voie d’éclatement en raison du décalage existant entre les coûts engendrés et les revenus estimés. Cet entretien se réfère à une autre chronique de 2023 rédigée par l’essayiste américain : https://locusmag.com/2023/12/commentary-cory-doctorow-what-kind-of-bubble-is-ai/. Cory Doctorow précisait alors que dans le domaine de la tech, deux types de bulles coexistent : celles qui ne laissent place qu’aux dérives sociales, à la spéculation et à l’accumulation des richesses entre une poignée d’acteurs, et celles qui parviennent à faire émerger des dynamiques positives de long terme (partage de connaissances, création d’écosystèmes, etc.).

Les émissions carbone des centres de données des GAFAM seraient 662% plus élevées qu'elles le prétendent | Green.it
thumbnail

Les centres de données, ces infrastructures essentielles au fonctionnement de l’ère numérique, sont au cœur d’une controverse majeure. Selon une analyse récente, entre 2020 et 2022, les émissions de gaz à effet de serre des centres de données appartenant à des géants de la technologie comme Google, Microsoft, Meta et Apple étaient environ 662% plus élevées que ce qu’ils ont déclaré officiellement. Cette révélation soulève des questions cruciales sur la transparence et la responsabilité environnementale de ces entreprises.

Intelligence artificielle : définition et utilisation | Thèmes | Parlement européen
thumbnail

L’intelligence artificielle (IA) est en passe de devenir la « technologie clé de l’avenir ». Mais qu’entend-on exactement par « IA » et comment affecte-t-elle notre quotidien ?

IA et numérique : Vers un travail en micromiettes ? Entretien avec Antonio A. Casilli | Agir par la culture
thumbnail

Avec « En atten­dant les robots », le socio­logue Anto­nio A. Casilli s’attaque à l’un des prin­ci­paux mythes des socié­tés occi­den­tales contem­po­raines : le déve­lop­pe­ment sans frein de la tech­no­lo­gie va conduire à la dis­pa­ri­tion du tra­vail ; les humains sont condam­nés à être rem­pla­cés par des « intel­li­gences arti­fi­cielles ». Or, en se penchant sur l’arrière-cuisine du secteur numérique, Casilli montre à quel point ces intelligences dites artificielles sont en réalité « largement faites à la main », par une armée de réserve de l’industrie numérique composée de travailleurs et travailleuses précaires qui se tuent à la microtâche.

Quelle place donner à l’intelligence artificielle ? | Agir par la culture
thumbnail

Tant la figure de l’algorithme que celle de l’intelligence arti­fi­cielle (IA) béné­fi­cient d’une popu­la­ri­té sans pareille dans les médias. Cet engouement est d’autant plus sur­pre­nant en regard de la tech­ni­ci­té de ce thème. Mal­heu­reu­se­ment, ce trai­te­ment média­tique relègue sou­vent l’analyse du sujet à des consi­dé­ra­tions tech­niques au détri­ment de ses dimen­sions sociales. Pourtant, si ces artefacts informatiques étranges méritent bien d’être questionnés au sein de l’espace public, c’est pour l’influence qu’ils peuvent exercer aujourd’hui sur nos modes de vie et nos opportunités de faire société. Lorsque l’on parle à la fois d’influence et d’IA, c’est la thématique des « biais algorithmiques » qui fait généralement les gros titres. À travers cet article, nous allons essayer d’insérer un peu de nuance dans ce débat sans pour autant négliger certaines technicités.

Tech Companies Turned Ukraine Into an AI War Lab | TIME
thumbnail

The AI tools provided by companies like Palantir and Clearview raise questions about when and how invasive tech should be used in wartime.

“Ukraine is a living laboratory in which some of these AI-enabled systems can reach maturity through live experiments and constant, quick reiteration,” says Jorritt Kaminga, the director of global policy at RAIN, a research firm that specializes in defense AI. Yet much of the new power will reside in the hands of private companies, not governments accountable to their people.

“This is the first time ever, in a war, that most of the critical technologies are not coming from federally funded research labs but commercial technologies off the shelf,” says Steve Blank, a tech veteran and co-founder of the Gordian Knot Center for National Security Innovation at Stanford University. “And there’s a marketplace for this stuff. So the genie’s out of the bottle.”

Gen Z driving early adoption of Gen AI, our latest research shows | Ofcom
thumbnail

Four in five (79%) online teenagers aged 13-17 now use generative AI tools and services, with a significant minority of younger children aged 7-12 also adopting the technology (40%).

Adult internet users aged 16 and above are, on average, comparatively more reluctant users of generative AI (31%). Among those who have never used this technology (69%), nearly one in four have no idea what it is (24%).

Snapchat My AI - which became freely available to all Snap users in April 2023 - is the most popular generative AI tool among children and teens, used by half (51%) of online 7–17-year-olds. Online teenage girls are its most avid users (75%).

ChatGPT is the most widely used generative AI service among internet users aged 16 and above (23%). Among online youngsters aged 7-17, boys are keener users of ChatGPT than girls (34% versus 14%).

L'intelligence artificielle générative et moi | FUN MOOC
thumbnail

Voici un mini MOOC pour vous former rapidement à l’IA générative dans votre quotidien. Il s’agira de comprendre comment elle transforme notre vie de tous les jours, nos métiers et nos compétences.

À la fin de ce cours, vous saurez :

  • Analyser quand l’IA générative apporte de la valeur dans notre vie, dans l’entreprise et dans les métiers et quels sont les risques
  • Utiliser des outils d’IA générative (synthétiser, créer, faire es visuels, des rapports, de la veille, etc) pour vous aider dans votre travail quotidien
  • Prendre conscience de cas d’usage en RH, industrie, Management d’entreprises qui ont réussi à intégrer l’IA générative pour transformer leurs pratiques (plus de 30 interviews)
  • Découvrir les pratiques d’IA génératives d’entreprises en Inde et aux États Unis grâce aux interviews de nos Learning Expédition à Mumbai, Boston et World of IA à Cannes
Google, Microsoft et Adobe : l’intelligence artificielle gratuite, c’est fini | France Info
thumbnail

L’IA est en train de prendre sa place dans les logiciels que nous utilisons tous les jours. Après plusieurs mois de test, Google, Adobe et Microsoft ont annoncé la fin de la période d’essai gratuite. Pour continuer à profiter de leur intelligence artificielle respective, il va falloir payer.

AI Is Steeped in Big Tech’s ‘Digital Colonialism’ | WIRED
thumbnail

Artificial intelligence continues to be fed racist and sexist training materials and then distributed around the world.

AI systems are often trained on gargantuan data sets, usually scraped from the web for cost-effectiveness and ease. But this means AI can inherit all the biases of the humans who design them, and any present in the data that feeds them. The end result mirrors society, with all the ugliness baked in.

Les images générées par IA et le risque de réécrire l’histoire | Le Monde
thumbnail

La démocratisation de l’intelligence artificielle, via Midjourney, a facilité la diffusion d’une multitude de « photos d’époque » fictives. Des pseudo-images parfois difficiles à identifier et qui ont déjà servi à justifier des discours politiques.

Intelligence artificielle : Nous n’avons pas besoin de plus de contenus, mais de meilleures analyses | FredCavazza.net
thumbnail

Avec la sortie de GPT-4, la ferveur médiatique autour des IA génératives atteint des sommets. Présentés comme la solution miracle à tous nos problèmes, les modèles génératifs nourrissent tous les fantasmes des techno-utopistes et "experts en IA" de Twitter. Pourtant ils ne résolvent en rien les problèmes des entreprises (cloisonnement des données et connaissances, système d’information sclérosé, gigantesque dette numérique…) et risquent même d’aggraver l’infobésité ou la désinformation. Plutôt que de participer à l’hystérie collective, je préfère adopter une approche critique et poser une question essentielle : quel problème essaye-t-on de résoudre ?

Cela fait 15 ans que nous nous plaignons et cherchons à lutter contre l’infobésité, pourquoi se réjouir de l’avènement des IA génératives ? Est-ce que ça ne serait pas plus viable d’apprendre aux collaborateurs à envoyer moins d’emails et à reporter les pratiques de communication / collaboration sur des outils qui sont conçus pour ?

L'extrême droite a utilisé l'intelligence artificielle pour faire passer ses messages pendant la campagne | France Info
thumbnail

L'ONG AI Forensics révèle que les partis d'extrême droite ont utilisé l'IA pour propager leurs messages anti-immigration et anti-Europe pendant la campagne des européennes et des législatives.

Ces chercheurs indépendants ont analysé les contenus publiés en ligne par 38 partis et coalitions en France : textes, images, vidéos… Et leur constat, c'est que l'IA, bien qu'encore peu utilisée par les candidats dans leur ensemble, est principalement exploitée par l'extrême droite. L'impact de ces images sur les votes reste difficile à mesurer. Mais les chercheurs déplorent que les personnes voyant passer ces contenus ne semblent pas réaliser qu'ils ont été générés par l'IA.

Intelligence Artificielle : L'inéluctable montée en puissance dans les médias | Aday
thumbnail

Tagaday, 1ère plateforme de veille médias, publie la deuxième édition de son Observatoire du traitement de l’intelligence artificielle dans les médias en France. Tagaday a mesuré la visibilité médiatique de l'IA et de ses grands secteurs sur la TV/radio, presse française et sites du web éditorial.

Une couverture médiatique en progression de 257% en 24 mois (2022-2024).
Avec 78% de part de voix en 2023 et 70% en 2024, ChatGPT est de loin l’intelligence artificielle la plus visible dans les médias.

Intelligence Artificielle et design d'interface : vers un design de la confiance ? | Graphisme et interactivité
thumbnail

Imaginons que dans un futur plus ou moins proche, il nous sera impossible de différencier le contenu créé par un humain du contenu créé par une IA. Dans les lectures, les écoutes musicales, les séries, les films, les photographies et tous les contenus pouvant être numériques il y aura un mélange entre ce qui est conçu humainement et par les IA.

Mais en attendant cela, j’imagine un monde numérique où les services, les médias, les sites Internet présenteront des options pour afficher ou non le contenu généré par IA et ainsi proposer aux utilisateurs, les différentes versions. Cela existe déjà sur les plateformes de vente d’images en ligne pour faire le tri entre les images générées et les images non générées.

Training is not the same as chatting: ChatGPT and other LLMs don’t remember everything you say | Simon Willison’s Weblog

I’m beginning to suspect that one of the most common misconceptions about LLMs such as ChatGPT involves how “training” works. A common complaint I see about these tools is that people don’t want to even try them out because they don’t want to contribute to their training data. This is by no means an irrational position to take, but it does often correspond to an incorrect mental model about how these tools work.

Short version: ChatGPT and other similar tools do not directly learn from and memorize everything that you say to them.

Peut-on corriger les biais des algorithmes ? | Next
thumbnail

Les algorithmes sont pleins de biais, notamment sociaux, plus ou moins inquiétants. Les cas de biais algorithmiques aux effets inquiétants sur la société se multiplient. Et malgré la conscience croissante du problème, la multiplication de systèmes dits d’« intelligence artificielle » (IA) ne montre pas le moindre signe de ralentissement. Quels sont les outils à disposition, dans ce cas, pour éviter que ces machines ne nuisent à différents segments de la population ? Et dans quelle mesure fonctionnent-ils ? Qu’implique le fait de vouloir les corriger ?

How People Are Really Using GenAI | Harvard Business Review

There are many use cases for generative AI, spanning a vast number of areas of domestic and work life. Looking through thousands of comments on sites such as Reddit and Quora, the author’s team found that the use of this technology is as wide-ranging as the problems we encounter in our lives. The 100 categories they identified can be divided into six top-level themes, which give an immediate sense of what generative AI is being used for: Technical Assistance & Troubleshooting (23%), Content Creation & Editing (22%), Personal & Professional Support (17%), Learning & Education (15%), Creativity & Recreation (13%), Research, Analysis & Decision Making (10%).

Monopoly : la bulle éclate | Arrêt sur images
thumbnail

Alors que les signes de l'éclatement de la bulle financière de l'IA s'amoncellent, le marché continue de dépenser comme jamais. Le signe d'un régime politique et économique délirant, dans lequel une poignée de monopoles s'exonère de la rationalité.

B.a.bIA #3 : IA : Prompt injection, empoisonnement… de quoi on parle ? | Next
thumbnail

Les expressions se multiplient autour de l'intelligence artificielle. Mais qu’est-ce qu’une injection de prompt ? Et une attaque adverse ?

Quand on parle d’intelligence artificielle, en particulier générative, les nouvelles expressions sont nombreuses. Dans cette édition de notre lexique de l’IA, penchons-nous sur celles qui qualifient les attaques, déjà variées, qui visent à fragiliser les modèles d’apprentissage machine ou à contourner diverses restrictions implémentées par les constructeurs. 



Comprendre ce que l'IA sait faire et ce qu'elle ne peut pas faire | Dans les algorithmes
thumbnail

Quand on parle d'Intelligence artificielle on mobilise un terme qui qualifie un ensemble de technologies vaguement reliées, expliquent les chercheurs Arvind Narayanan et Sayash Kapoor dans leur nouveau livre, "AI Snake Oil". S’ils n’y arrivent pas toujours, les deux spécialistes nous aident à comprendre les défaillances de l’IA dans un livre qui mobilise la science pour qu’elle nous aide à éclairer le chemin critique qu’il reste à accomplir.

Intelligence artificielle et climat : quelques espoirs, beaucoup de pollutions | Reporterre
thumbnail

Prévenir les canicules, gérer les feux... Les masses de données manipulées par l’intelligence artificielle peuvent être utiles à la transition. Mais l'outil, ultrapolluant, n'est pas un remède miracle à la crise climatique.

« Dire que l’IA va tout résoudre est un discours technosolutionniste »

Intelligence artificielle générative : l’Autorité rend son avis sur le fonctionnement concurrentiel du secteur | Autorité de la concurrence

L'Autorité de la concurrence a décidé, le 8 février 2024, de s'autosaisir pour avis sur le fonctionnement concurrentiel du secteur de l'IA générative et de lancer une consultation publique, lui permettant de collecter le point de vue d’une quarantaine d’acteurs et d’une dizaine d’associations d’acteurs.

Cet avis se concentre plus particulièrement sur les stratégies mises en place par les grands acteurs du numérique visant à consolider leur pouvoir de marché à l’amont de la chaîne de valeur de l’IA générative, c’est-à-dire dans la conception, l’entraînement et la spécialisation des grands modèles de langage ou à tirer parti de ce pouvoir de marché pour se développer dans ce secteur en plein essor.

Elle n’aborde par conséquent qu’à titre incident les pratiques des acteurs à l’aval de la chaîne de valeur, c’est-à-dire au contact du consommateur final, et pas du tout les conséquences de l’IA pour le fonctionnement concurrentiel de l’ensemble de l’économie – question d’importance majeure et qui méritera des analyses ultérieures.

IA et démocratie : La technique ne peut pas résoudre les conflits politiques - Entretien avec Salomé Frémineur | Agir par la culture
thumbnail

Si les IA et les logiques algo­rith­miques des grandes pla­te­formes peuvent inter­ve­nir sur le débat public, les ten­sions qui tra­versent les pro­cessus de déli­bé­ra­tion ne naissent pas for­cé­ment du numé­rique. C’est ce que déve­loppe Salo­mé Fré­mi­neur, char­gée de cours invi­tée en phi­lo­so­phie à l’ULB, l’UMONS et à l’Université de Namur qui étu­die le rôle du lan­gage dans la politique. Elle s’est notamment penchée sur les processus de délibération et sur ce qui pouvait fonder et animer des espaces de discussions publiques. Comment les IA (et les fantasmes qu’on peut nourrir sur elles) travaillent-elles des processus démocratiques ?

IA générative : Microsoft relance la centrale nucléaire de Three Mile Island pour alimenter ses data centers | Usine Digitale
thumbnail

Arrêtée en 2019, la centrale nucléaire américaine de Three Mile Island en Pennsylvanie reprend du service. La raison ? Microsoft souhaite exploiter l'énergie produite par l'un des réacteurs – l'unité 1 – pour alimenter ses centres de données aux Etats-Unis.

Les IA génératives sont-elles vraiment «intelligentes» ? | Libération
thumbnail

Face à des gourous de la tech qui promettent une créativité et une productivité débordantes, au-delà des possibilités humaines, des chercheurs réunis en colloque avant l’été à Paris-8 ont rappelé que ces technologies numériques sont des dispositifs de calculs qui génèrent des contenus grâce à l’indexation de données. Ils n’apprennent pas et n’inventent pas. Petit tour d’horizon de ce que la recherche universitaire comprend de ces intelligences artificielles génératives.

L’IA générative ferait pire que les humains dans les tâches de résumé | Next

Selon des tests réalisés pour l’autorité australienne de régulation des entreprises, la Securities and Investments Commission (ASIC), l’intelligence artificielle produit de moins bons résultats que les humains dans toutes les tâches de résumé. Au point que ces technologies pourraient créer du travail supplémentaire plutôt qu’en enlever.

Référentiel général de l’écoconception des services numériques | Arcep
thumbnail

L’écoconception des équipements et services numériques fait partie des leviers identifiés pour inverser la tendance en réduisant l’empreinte environnementale du numérique. Ce terme désigne « l’intégration des caractéristiques environnementales dans la conception du produit en vue d’améliorer la performance environnementale du produit tout au long de son cycle de vie ».

Le référentiel général de l’écoconception des services numériques est un document technique destiné aux experts et métiers du numérique souhaitant mettre en œuvre une démarche d’écoconception pour un service(sites, applications, IA, logiciels, API). Il a été élaboré par l’Arcep et l’Arcom, en collaboraiton avec l’ADEME, la DINUM, la CNIL et l’Inria.

Une autre intelligence artificielle est possible, par Evgeny Morozov | Le Monde diplomatique
thumbnail

Les progrès de l'intelligence artificielle éblouissent mais interrogent : la technologie ne passe-t-elle pas à côté de l'essentiel ? Dans les années 1970, des informaticiens hippies rêvaient de machines qui aident à développer notre intelligence « naturelle » et notre rapport au monde.

Chercher à développer une économie socialisée de l’intelligence artificielle, n’est-ce pas encore capituler face à la Silicon Valley ? Une IA « communiste » ou « socialiste » doit-elle se limiter à décider qui détient et contrôle les données ou à modifier les modèles et les infrastructures informatiques ? Ne pourrait-elle être porteuse de transformations plus profondes ?

Au lieu de renforcer une approche actuelle fondée notamment sur des objectifs de productivité, Morozov appelle à mobiliser « l’éducation et la culture, les bibliothèques et les universités », afin « d’ouvrir à tous, sans considération de classe, d’ethnicité ni de genre, l’accès à des institutions et des technologies qui favorisent l’autonomie créatrice et permettent de réaliser pleinement ses capacités. »

IA : un impact environnemental conséquent mais toujours difficile à mesurer | Next
thumbnail

Trois chercheuses de la plateforme d'hébergement de projets d'IA Hugging Face, Sasha Luccioni, Bruna Trevelin et Margaret Mitchell ont rassemblé les connaissances disponibles actuellement à propos de l'impact de l'IA sur l'environnement. Elles constatent encore trop peu de transparence sur les besoins énergétiques de chaque application d'IA, elles parcourent l'ensemble des connaissances actuellement disponibles.

« Les IA déplacent le travail mais ne remplacent pas des emplois " - Entretien avec Juan Sebastian Carbonell | Agir par la culture

Selon de nom­breux dis­cours poli­tiques et média­tiques, les pro­messes des intel­li­gences arti­fi­cielles (IA), s’ajoutant aux autres outils visant à auto­ma­ti­ser le tra­vail, n’annonceraient rien de moins que la fin du tra­vail et la des­truc­tion de la plu­part des emplois à moyen terme. Le sociologue du travail et des relations professionnelles Juan Sebastian Carbonell, qui développe ses recherches à partir du point de vue du monde du travail, bat en brèche dans "Le futur du travail" ce scénario. Les IA, les robots, les machines ne remplacent en effet jamais complètement les travailleur·euses. Mais leur introduction modifie en revanche profondément les conditions dans lesquelles leur activité s’exerce. Souvent dans le sens d’une dégradation.

« Les algorithmes, un art de ne pas changer le monde » - Entretien avec Antoinette Rouvroy | Agir par la culture
thumbnail

Antoi­nette Rou­vroy, phi­lo­sophe et cher­cheuse en droit à l’Université de Namur, étu­die de longue date les enjeux poli­tiques et sociaux des algo­rithmes. Nous lui avons deman­dé de quelle manière les sys­tèmes d’intelligences arti­fi­cielles (IA) tra­vaillaient et trans­for­maient actuel­le­ment nos démo­cra­ties. Et le dan­ger des algo­rithmes, ou plu­tôt du « capi­ta­lisme sous sté­roïde algo­rith­mique », ne semble pas tant celui de perturber l’information des citoyen·nes ou même les élections. Mais, en flattant notre hyperindividualisme, ces processus nous fragmentent et court-circuitent ce qui fonde même les démocraties : le besoin et le désir de commun. Un moment constitutionnel pourrait bien constituer l’antidote à cette colonisation des esprits par le numérique marchand.

Analyse. Au Pakistan, l’intelligence artificielle bouscule la campagne des législatives | Courrier International
thumbnail

C’est une nouvelle règle du jeu dans l’univers de la politique à l’ère numérique : un flot continu de contenus générés artificiellement caractérise désormais les campagnes électorales, avec l’essor d’outils gratuits, comme le clonage des voix ou l’édition d’images.

Au Pakistan, les dernières législatives [en 2018] témoignaient déjà d’une sophistication croissante des campagnes numériques : création de faux comptes, bombardements coordonnés de hashtags, applis mobiles personnalisées, organisation de grands événements à partir des réseaux sociaux… Et, en février 2024, le pays va vivre sa plus grande élection dématérialisée. Les partis politiques sont naturellement tentés de franchir un nouveau cap avec l’intelligence artificielle [IA].

Quand Midjourney n'arrive pas à représenter un médecin noir soignant des enfants blancs | Next
thumbnail

Des chercheurs en bioéthique ont essayé de générer via Midjourney des photos de médecins noirs soignant des enfants blancs pauvres. Spoiler : c'est quasiment impossible, sauf à renforcer un autre stéréotype, celui du guérisseur traditionnel africain.

Le capital algorithmique | Écosociété
thumbnail

Le capital algorithmique : Accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle par Jonathan Durand Folco et Jonathan Martineau (2023)

Pour Jonathan Durand Folco et Jonathan Martineau, les changements techniques en cours sont tels que nous sommes entrés dans un nouveau stade du capitalisme : le capital algorithmique. En vingt thèses critiques, ils montrent comment la valorisation des données massives et le déploiement rapide de l’intelligence artificielle s’accompagnent de mutations socioéconomiques et politiques majeures. À la fois dynamique d’accumulation, rapport social et forme inédite de pouvoir basé sur les algorithmes, il s’agit d’une réalité multidimensionnelle qui bouleverse déjà profondément nos vies.

Les agents intelligents sont les nouveaux chatbots – FredCavazza.net
thumbnail

Alors que nous approchons du second anniversaire du lancement de chatGPT et que le marché est toujours dans l’expectative du lancement de GPT-5, tous les regards sont tournés vers OpenAI, la nouvelle coqueluche des médias et des experts en NTIC. La sortie récente d’un modèle génératif capable de raisonner ouvre de nombreuses possibilités que seules…

Le terme « chatbot » désigne maintenant les IA de nouvelle génération, celles qui proposent une interface conversationnelle pour interagir avec un grand modèle de langage par l’intermédiaire de commandes textuelles, les prompts.

En combinant les modèles de langage, les modèles de parole, les modèles de vision, les modèles de raisonnement et les modèles d’action, il serait possible de mettre au point des IA beaucoup plus versatiles, capables de rendre des services à plus forte valeur ajoutée que des réponses générées par un chatbot à commandes textuelles.

Quand les psychologues décryptent le raisonnement des intelligences artificielles | The Conversation
thumbnail

En matière d’intelligence artificielle, les « grands modèles de langage » comme ChatGPT sont si complexes que leurs créateurs peinent à prévoir leurs comportements. La psychologie peut les y aider.

Nous avons utilisé des outils de psychologie cognitive traditionnellement utilisés pour étudier la rationalité chez l’être humain afin d’analyser le raisonnement de différents LLM, parmi lesquels ChatGPT. Nos travaux ont permis de mettre en évidence l’existence d’erreurs de raisonnements chez ces intelligences artificielles. Explications.

Enquête : derrière l’IA, les travailleurs précaires des pays du Sud | The Conversation
thumbnail

Pour alimenter les modèles d’IA et valider les algorithmes, le travail humain est indispensable. Enquête à Madagascar sur les dessous de « l’IA à la française ».

Récemment une enquête du Time révélait que des travailleurs kényans payés moins de trois euros de l’heure étaient chargés de s’assurer que les données utilisées pour entraîner ChatGPT ne comportaient pas de contenu à caractère discriminatoire.

Rendre visible l’implication de ces travailleurs c’est questionner des chaînes de production mondialisées, bien connues dans l’industrie manufacturière, mais qui existent aussi dans le secteur du numérique. Ces travailleurs étant nécessaires au fonctionnement de nos infrastructures numériques, ils sont les rouages invisibles de nos vies numériques. C’est aussi rendre visible les conséquences de leur travail sur les modèles. Une partie des biais algorithmiques résident en effet dans le travail des données, pourtant encore largement invisibilisé par les entreprises. Une IA réellement éthique doit donc passer par une éthique du travail de l’IA.

Google and Kairos Power Partner to Deploy 500 MW of Clean Electricity Generation | Kairos Power
thumbnail

The deal represents the first corporate agreement for multiple deployments of a single advanced reactor design in the United States.

Alameda, CA – October 14, 2024 – Kairos Power and Google have signed a Master Plant Development Agreement, creating a path to deploy a U.S. fleet of advanced nuclear power projects totaling 500 MW by 2035. Under the agreement, Kairos Power will develop, construct, and operate a series of advanced reactor plants and sell energy, ancillary services, and environmental attributes to Google under Power Purchase Agreements (PPAs). Plants will be sited in relevant service territories to supply clean electricity to Google data centers, with the first deployment by 2030 to support Google’s 24/7 carbon-free energy and net zero goals.

L’intelligence artificielle peut-elle être l’alliée des démocraties ? | Usbek & Rica
thumbnail

Après un Tribunal pour les Générations Futures organisé en novembre 2023 autour du rôle des cultures autochtones dans la préservation du vivant, Usbek & Rica et le Bureau Français de Taipei poursuivent leur exploration des grands enjeux d’avenir en interrogeant l’impact de l’intelligence artificielle sur la démocratie. Alors que plus de la moitié de la population mondiale est appelée aux urnes en 2024, l’intelligence artificielle peut-elle protéger la démocratie des maux qui la menacent, ou risque-t-elle de signer sa perte ? L’intelligence artificielle peut-elle inaugurer un nouvel âge de la démocratie, en facilitant l’expression et la représentation des citoyens dans l’élaboration des politiques publiques ?

Common Corpus : des textes du domaine public pour entrainer des IA (génératives) | Next
thumbnail

Une initiative internationale menée par la startup française Pleias propose un corpus de textes du domaine public permettant d'entrainer les IA génératives tout en respectant les lois régissant les droits d'auteur : Common Corpus. Pierre-Carl Langlais, co-fondateur de Pleias, nous parle de son projet.

Apocalypse Google | Arrêt sur images
thumbnail

Dites adieu au moteur de recherche que vous utilisez quotidiennement : en 2024, les IA de Google vont vous résumer le Web, que vous le vouliez ou non. Une automutilation technique qui reflète le pouvoir absolu du monopole Google.

Ce que Google vient de faire est caractéristique du mode opératoire actuel de la Silicon Valley - annoncer en grande pompe un futur parfaitement hypothétique, une usine à gaz sur laquelle la presse et le public s'empresseront de poser des yeux humides d'émerveillement, pour dissimuler des modifications structurelles, violentes, de nos écosystèmes informationnels, et neutraliser autant que possible leur analyse dans le champ social.

Les LLM réduisent le partage des connaissances publiques sur les plateformes de questions-réponses en ligne | Developpez.com
thumbnail

Les grands modèles de langage réduisent le partage des connaissances publiques sur les plateformes de questions-réponses en ligne. L'impact de ChatGPT sur Stack Overflow en est le parfait exemple. Mais cette tendance représente un danger pour les modèles eux-mêmes : il y a moins de contenu valable pour former les LLM, qui finissent donc par s'auto-empoisonner. Une nouvelle étude lève le voile sur cette situation.

Stanford pointe le manque de transparence dans les grands modèles d’intelligence artificielle | Next
thumbnail

Alors que les travaux se multiplient pour réguler le domaine de l'intelligence artificielle, l'équipe du Centre de recherche sur les modèles de fondation de Stanford dévoile un index d'analyse de la transparence des modèles d'IA généralistes. Résultat de la toute première analyse : tout le monde peut (largement) mieux faire.

Selon une étude menée par Rishi Bommasani et plusieurs autres chercheurs du Center for Research on Foundation Models (CRFM) de l’Institute for Human-Centered Artificial Intelligence (HAI) de Stanford, ni Meta, ni Hugging Face, ni Open AI (qui contient pourtant le mot « open » dans son nom) ni Google n’explosent les scores en matière de transparence de leurs modèles de fondation. Selon les scientifiques, ils sont même de moins en moins transparents.

Comment évaluer les bénéfices nets des solutions d’IA pour l’environnement ?  | Interstices
thumbnail

L’intelligence artificielle (IA) est aujourd’hui souvent considérée comme un des outils à utiliser pour résoudre les problèmes environnementaux. En particulier, elle pourrait permettre de réduire les émissions de gaz à effet de serre (GES) dans plusieurs secteurs comme l'agriculture ou les transports. Mais la mise en place et l’utilisation de solutions basées sur l'IA peuvent nécessiter beaucoup d’énergie et d’équipements, qui ont eux aussi un impact sur l’environnement. Alors comment évaluer les bénéfices nets complets de telles solutions d’IA sur l’environnement ?

B.a.bIA #2 : Neurone, inférence, entraînement, hallucination… de quoi on parle ? | Next
thumbnail

Qu’est-ce qu’un neurone artificiel ? Et quelle différence entre une hallucination humaine et celle d’une machine ?

Au gré de nos articles sur l’intelligence artificielle, nous utilisons à loisir tout un vocabulaire qui, s’il est souvent tiré d’activités humaines, qualifie bien des éléments spécifiques au champ informatique. Après avoir décortiqué une partie des expressions génériques qui qualifient certains champs et sous-champs du domaine, intéressons-nous donc au fonctionnement plus précis des systèmes d’IA.

Éthique de l'intelligence artificielle : dans les enjeux de la « Regulation by design » par Irénée Régnauld sur LinkedIn
thumbnail

La question de la régulation de l’intelligence artificielle est majeure. Elle articule une variété de courants, des plus techno-optimistes, plaidant l’adaptation à un avenir déjà écrit, aux oppositions plus frontales aux technologies numériques et à la « civilisation industrielle » dans son ensemble. Entre les deux, on retrouve les approches régulationnistes, engageant à encadrer davantage le développement de l’IA dans un esprit de responsabilité. Un domaine en particulier est souvent mentionné dans ce champ : la « regulation by design » (RbD). Il s’agit en résumé, d’incorporer les régulations en vigueur à la conception des systèmes, ce qui ne va pas sans poser quelques questions.

Les LLM IA auront toujours des hallucinations, et nous devons nous en accommoder | Developpez.com
thumbnail

Une nouvelle étude révèle que les hallucinations de grands modèles de langage (LLM) découlent de leurs structures mathématiques et logiques fondamentales. En augmentant la complexité et la capacité des modèles, il est possible de réduire la fréquence de ces hallucinations, mais il serait impossible de les éliminer complètement.

IA, est-ce seulement souhaitable ? - Le Mouton numérique | Agir par la culture
thumbnail

Pleine de pro­messes ou por­teuse d’inquiétudes, l’Intelligence Arti­fi­cielle (IA) est sur toutes les lèvres et ne cesse d’envahir les titres des jour­naux. Mais der­rière les vagues de spé­cu­la­tion, elle incarne sur­tout le pro­lon­ge­ment d’un capi­ta­lisme numé­rique qui pousse tou­jours plus loin l’exploitation éco­lo­gique et humaine. 

IA : lancements à grande échelle partout, contrôle démocratique nulle part | Louis Derrac
thumbnail

N’étant pas juriste, c’est avec prudence et humilité que je vous partage la réflexion suivante. Comment est-ce possible qu’on laisse encore des entreprises privées lancer ce qu’il faut bien appeler des expérimentations à grande échelle, sans dispositif de contrôle, sur des produits aussi potentiellement dangereux que des programmes d’intelligence artificielle comme ChatGPT ? Alors que de l’aveu même de nombreux chercheurs en pointe dans le domaine, « on ne sait pas encore pourquoi ça marche aussi bien ».

L'Intelligence Artificielle... avec intelligence ! | FUN MOOC
thumbnail

Class'Code IAI est un MOOC citoyen accessible à toutes et à tous de 7 à 107 ans pour se questionner, expérimenter et comprendre ce qu’est l’Intelligence Artificielle.

À la fin de ce cours, vous saurez :

  • décrypter le discours autour de l'IA pour passer des idées reçues à des questions sur lesquelles s'appuyer pour comprendre,
  • manipuler des programmes d'IA pour se faire une opinion par soi-même,
  • partager une culture minimale sur le sujet, pour se familiariser avec le sujet au-delà des idées reçues,
  • discuter le sujet, ses applications, son cadre avec des interlocuteurs variés pour contribuer à la construction des applications de l’IA
État 2024 de la situation sur les impacts sociétaux de l'intelligence artificielle et du numérique | Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA)
thumbnail

L'État de la situation sur les impacts sociétaux de l'intelligence artificielle et du numérique fait état des connaissances actuelles sur les impacts sociétaux de l'IA et du numérique, structurées autour des sept axes de recherche de l'Obvia : santé, éducation, travail et emploi, éthique et gouvernance, droit, arts et médias, et transition socio-écologique. Hypertrucages, désinformation, empreinte environnementale, droit d'auteur, évolution des conditions de travail, etc.

Le document recense les grandes questions de recherche soulevées par le déploiement progressif de ces nouvelles technologies, auxquelles viennent s'ajouter des cas d'usages et de pistes d'action. Il s'impose ainsi comme un outil complet et indispensable pour accompagner la prise de décision dans tous les secteurs bouleversés par ces changements.

Les trois écologies à l’épreuve de l’intelligence artificielle | Chut!
thumbnail

La pensée de Félix Guattari permet d’éclairer les coûts cachés des IA génératives, qui s’appuient sur un extractivisme pillant les ressources naturelles et culturelles.

Quelle que soit leur utilité potentielle, la généralisation de ces systèmes semble donc aller de pair avec un épuisement des ressources naturelles, au détriment des besoins fondamentaux des citoyens et de l’avenir de nos écosystèmes communs.

Un référentiel pour mesurer et réduire l’impact environnemental de l’IA | AFNOR
thumbnail

Les systèmes sollicitant une intelligence artificielle (IA) consomment de l’énergie et des ressources pour fonctionner. Mais concevoir des IA qui consomment le moins possible, c’est prendre le risque de subir l’effet rebond : quand l’efficience d’une IA la rend moins coûteuse et plus facile à embarquer, son utilisation peut augmenter… et son impact environnemental avec ! Initiative du ministère de la Transition écologique et de la cohésion des territoires, l’AFNOR Spec 2314 énonce des méthodologies de calcul et des bonnes pratiques pour mesurer et réduire l’impact environnemental de l’IA, et pour communiquer avec des allégations justes et vérifiables.

The Environmental Impacts of AI - Sasha Luccioni on Hugging Face
thumbnail

Artificial intelligence (AI) has an environmental cost. Beginning with the extraction of raw materials and the manufacturing of AI infrastructure, and culminating in real-time interactions with users, every aspect of the AI lifecycle consumes natural resources – energy, water, and minerals – and releases greenhouse gases. The amount of energy needed to power AI now outpaces what renewable energy sources can provide, and the rapidly increasing usage of AI portends significant environmental consequences. The goal of this primer is to shed light on the environmental impacts of the full AI lifecycle, describing which kinds of impacts are at play when, and why they matter.

Objectif IA : initiez-vous à l'intelligence artificielle | OpenClassrooms
thumbnail

Dans ce cours, vous découvrirez ce que recouvre vraiment l'intelligence artificielle : ses enjeux, ses possibilités, son fonctionnement scientifique ainsi que ses sous-disciplines, comme le Machine Learning et le Deep Learning.

Et si l’automatisation des recrutements répondait à l’automatisation des candidatures ? Hubert Guillaud sur LinkedIn
thumbnail

Vous vous souvenez ? En conclusion de notre dossier sur le recrutement automatisé, on évoquait la possibilité prochaine qu’à l’automatisation des recrutements répondent l’automatisation des candidatures. Eh bien nous y sommes, explique 404media en évoquant AIHawk, un assistant de recherche d’emploi déposé sur Github, qui permet de postuler à des emplois sur LinkedIn à grande échelle.

Des logiques algorithmiques au service du capital et contre la démocratie - Entretien avec Jonathan Durand Folco & Jonathan Martineau | Agir par la culture
thumbnail

On ne peut pas com­prendre le déve­lop­pe­ment phé­no­mé­nal des algo­rithmes aujourd’hui sans sai­sir les recon­fi­gu­ra­tions du capi­ta­lisme de ces 20 der­nières années. C’est ce que montrent deux ensei­gnant-cher­cheurs, Jona­than Mar­ti­neau et Jona­than Durand Fol­co, res­pec­ti­ve­ment à l’Université Concor­dia (Mont­réal) et à l’Université de Saint-Paul (Otta­wa) dans "Le capi­tal algo­rith­mique".

Ce livre développe en 20 thèses de quoi réfléchir de manière puissante, critique et multidimensionnelle les logiques algorithmiques et les intelligences artificielles qui bouleversent nos vies actuellement, le plus souvent au profit du marché. Selon eux, les changements techniques, économiques, sociaux et politiques sont tels que nous sommes passés à une nouvelle phase du capitalisme. Celui-ci, devenu algorithmique, affecte de multiples sphères de la société. Dont le fonctionnement de nos démocraties.