3 liens privés
La création de Nightshade est révélatrice de l’inquiétude de nombre d’artistes et de créateurs de contenu face à la montée en puissance des IA génératives qui s’entraînent librement sur leurs œuvres. D’autant plus que, comme l’expliquent les chercheurs, « peu d’outils peuvent empêcher que leur contenu soit introduit dans un modèle d’IA générative contre leur volonté. Les listes d’exclusion ont été ignorées par les entraîneurs d’IA dans le passé et peuvent être facilement ignorées sans aucune conséquence ».
C’est pourquoi ils souhaitent mettre fin à cette « asymétrie de pouvoir » en incitant les fournisseurs d’IA générative à n’exploiter que les contenus non protégés par des droits d’auteur sous peine de voir leurs modèles d’apprentissage empoisonnés par Nightshade.
Le capital algorithmique : Accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle par Jonathan Durand Folco et Jonathan Martineau (2023)
Pour Jonathan Durand Folco et Jonathan Martineau, les changements techniques en cours sont tels que nous sommes entrés dans un nouveau stade du capitalisme : le capital algorithmique. En vingt thèses critiques, ils montrent comment la valorisation des données massives et le déploiement rapide de l’intelligence artificielle s’accompagnent de mutations socioéconomiques et politiques majeures. À la fois dynamique d’accumulation, rapport social et forme inédite de pouvoir basé sur les algorithmes, il s’agit d’une réalité multidimensionnelle qui bouleverse déjà profondément nos vies.
Voici un mini MOOC pour vous former rapidement à l’IA générative dans votre quotidien. Il s’agira de comprendre comment elle transforme notre vie de tous les jours, nos métiers et nos compétences.
À la fin de ce cours, vous saurez :
- Analyser quand l’IA générative apporte de la valeur dans notre vie, dans l’entreprise et dans les métiers et quels sont les risques
- Utiliser des outils d’IA générative (synthétiser, créer, faire es visuels, des rapports, de la veille, etc) pour vous aider dans votre travail quotidien
- Prendre conscience de cas d’usage en RH, industrie, Management d’entreprises qui ont réussi à intégrer l’IA générative pour transformer leurs pratiques (plus de 30 interviews)
- Découvrir les pratiques d’IA génératives d’entreprises en Inde et aux États Unis grâce aux interviews de nos Learning Expédition à Mumbai, Boston et World of IA à Cannes
Discover how actionable AI empowers systems to understand human inputs and take proactive actions based on context and learned behaviors.
Think of LAMs as intelligent assistants who not only understand your requests but also take initiative to fulfill them. This unique ability to combine language understanding with autonomous action holds immense potential for transforming various aspects of our lives.
Alors que nous approchons du second anniversaire du lancement de chatGPT et que le marché est toujours dans l’expectative du lancement de GPT-5, tous les regards sont tournés vers OpenAI, la nouvelle coqueluche des médias et des experts en NTIC. La sortie récente d’un modèle génératif capable de raisonner ouvre de nombreuses possibilités que seules…
Le terme « chatbot » désigne maintenant les IA de nouvelle génération, celles qui proposent une interface conversationnelle pour interagir avec un grand modèle de langage par l’intermédiaire de commandes textuelles, les prompts.
En combinant les modèles de langage, les modèles de parole, les modèles de vision, les modèles de raisonnement et les modèles d’action, il serait possible de mettre au point des IA beaucoup plus versatiles, capables de rendre des services à plus forte valeur ajoutée que des réponses générées par un chatbot à commandes textuelles.
Why is it that so many companies that rely on monetizing the data of their users seem to be extremely hot on AI? If you ask Signal president Meredith Whittaker (and I did), she’ll tell you it’s simply because “AI is a surveillance technology.”
“It requires the surveillance business model; it’s an exacerbation of what we’ve seen since the late ’90s and the development of surveillance advertising. AI is a way, I think, to entrench and expand the surveillance business model,” she said.
L’IA est en train de prendre sa place dans les logiciels que nous utilisons tous les jours. Après plusieurs mois de test, Google, Adobe et Microsoft ont annoncé la fin de la période d’essai gratuite. Pour continuer à profiter de leur intelligence artificielle respective, il va falloir payer.
Rumman Chowdhury, Timnit Gebru, Safiya Noble, Seeta Peña Gangadharan, and Joy Buolamwini open up about their artificial intelligence fears. Today the risks of artificial intelligence are clear — but the warning signs have been there all along.
Quand les psychologues décryptent le raisonnement des intelligences artificielles | The Conversation
En matière d’intelligence artificielle, les « grands modèles de langage » comme ChatGPT sont si complexes que leurs créateurs peinent à prévoir leurs comportements. La psychologie peut les y aider.
Nous avons utilisé des outils de psychologie cognitive traditionnellement utilisés pour étudier la rationalité chez l’être humain afin d’analyser le raisonnement de différents LLM, parmi lesquels ChatGPT. Nos travaux ont permis de mettre en évidence l’existence d’erreurs de raisonnements chez ces intelligences artificielles. Explications.
Artificial intelligence continues to be fed racist and sexist training materials and then distributed around the world.
AI systems are often trained on gargantuan data sets, usually scraped from the web for cost-effectiveness and ease. But this means AI can inherit all the biases of the humans who design them, and any present in the data that feeds them. The end result mirrors society, with all the ugliness baked in.
Dans une tribune publiée par le magazine Time, l’historien superstar Yuval Noah Harari craint que, grâce à leur maîtrise du langage, « les IA puissent nouer des relations intimes avec les gens et utiliser ce pouvoir pour changer leurs opinions et leurs visions du monde ». De quoi entrevoir, selon lui, « la fin potentielle de l'histoire humaine ».
La démocratisation de l’intelligence artificielle, via Midjourney, a facilité la diffusion d’une multitude de « photos d’époque » fictives. Des pseudo-images parfois difficiles à identifier et qui ont déjà servi à justifier des discours politiques.
Pour alimenter les modèles d’IA et valider les algorithmes, le travail humain est indispensable. Enquête à Madagascar sur les dessous de « l’IA à la française ».
Récemment une enquête du Time révélait que des travailleurs kényans payés moins de trois euros de l’heure étaient chargés de s’assurer que les données utilisées pour entraîner ChatGPT ne comportaient pas de contenu à caractère discriminatoire.
Rendre visible l’implication de ces travailleurs c’est questionner des chaînes de production mondialisées, bien connues dans l’industrie manufacturière, mais qui existent aussi dans le secteur du numérique. Ces travailleurs étant nécessaires au fonctionnement de nos infrastructures numériques, ils sont les rouages invisibles de nos vies numériques. C’est aussi rendre visible les conséquences de leur travail sur les modèles. Une partie des biais algorithmiques résident en effet dans le travail des données, pourtant encore largement invisibilisé par les entreprises. Une IA réellement éthique doit donc passer par une éthique du travail de l’IA.
Dans son article "AI Is a Language Microwave", l’auteur nous propose une analogie intéressante : l’IA générative est comme un four à micro-ondes, un ersatz de four traditionnel, facile à utiliser et très pratique, car il peut nous faire gagner du temps si l’on accepte de faire des concessions sur la qualité de cuisson (il ne fait que réchauffer, impossible de faire un grilled cheese sandwich). Une comparaison très judicieuse qui nous fait relativiser la pertinence des chatbots actuellement disponibles pour des marques et organisations qui ne peuvent se permettre de faire des concessions sur la qualité des contenus ou la proximité des échanges. [...] Non, l’IA générative n’est ni une solution miracle, ni une fatalité, c’est un outil informatique dont il faut apprendre à se servir correctement pour ne pas trahir les valeurs de votre marque ou dégrader l’expérience client.
De ces 3 jours à Biarritz, je retiens une certaine défiance des personnes avec lesquelles j’ai pu discuter vis-à-vis des promesses sur-réalistes des éditeurs qui essayent de nous faire croire que l’IA généraliste va résoudre tous nos problèmes. Oui, les marques et organisations doivent faire face à de nombreux défis, elles en sont conscientes, mais qui ne sont pas insurmontables, et qui vont nécessités d’autres outils et façons de travailler. L’IA doit être considérée comme ce qu’elle est : un outil informatique permettant d’améliorer la qualité et la réactivité, pas de se substituer à des professionnels qui ont, je le rappelle, une connaissance précieuse de leur métier et de leur secteur.
Avec la sortie de GPT-4, la ferveur médiatique autour des IA génératives atteint des sommets. Présentés comme la solution miracle à tous nos problèmes, les modèles génératifs nourrissent tous les fantasmes des techno-utopistes et "experts en IA" de Twitter. Pourtant ils ne résolvent en rien les problèmes des entreprises (cloisonnement des données et connaissances, système d’information sclérosé, gigantesque dette numérique…) et risquent même d’aggraver l’infobésité ou la désinformation. Plutôt que de participer à l’hystérie collective, je préfère adopter une approche critique et poser une question essentielle : quel problème essaye-t-on de résoudre ?
Cela fait 15 ans que nous nous plaignons et cherchons à lutter contre l’infobésité, pourquoi se réjouir de l’avènement des IA génératives ? Est-ce que ça ne serait pas plus viable d’apprendre aux collaborateurs à envoyer moins d’emails et à reporter les pratiques de communication / collaboration sur des outils qui sont conçus pour ?
The deal represents the first corporate agreement for multiple deployments of a single advanced reactor design in the United States.
Alameda, CA – October 14, 2024 – Kairos Power and Google have signed a Master Plant Development Agreement, creating a path to deploy a U.S. fleet of advanced nuclear power projects totaling 500 MW by 2035. Under the agreement, Kairos Power will develop, construct, and operate a series of advanced reactor plants and sell energy, ancillary services, and environmental attributes to Google under Power Purchase Agreements (PPAs). Plants will be sited in relevant service territories to supply clean electricity to Google data centers, with the first deployment by 2030 to support Google’s 24/7 carbon-free energy and net zero goals.
L'ONG AI Forensics révèle que les partis d'extrême droite ont utilisé l'IA pour propager leurs messages anti-immigration et anti-Europe pendant la campagne des européennes et des législatives.
Ces chercheurs indépendants ont analysé les contenus publiés en ligne par 38 partis et coalitions en France : textes, images, vidéos… Et leur constat, c'est que l'IA, bien qu'encore peu utilisée par les candidats dans leur ensemble, est principalement exploitée par l'extrême droite. L'impact de ces images sur les votes reste difficile à mesurer. Mais les chercheurs déplorent que les personnes voyant passer ces contenus ne semblent pas réaliser qu'ils ont été générés par l'IA.
En raison des besoins en calcul informatique de l’intelligence artificielle, le groupe a vu ses émissions de gaz à effet de serre augmenter de 13 % en un an et de 48 % en cinq ans. Celles-ci s’élèvent à 14,3 millions de tonnes équivalent CO2. La cause de cette flambée, qui va à rebours des objectifs climatiques du groupe américain ? L’explosion de l’intelligence artificielle (IA). Comme pour Microsoft, qui avait dû annoncer, mi-mai, un bond similaire de ses émissions, de 30 % en un an.
Après un Tribunal pour les Générations Futures organisé en novembre 2023 autour du rôle des cultures autochtones dans la préservation du vivant, Usbek & Rica et le Bureau Français de Taipei poursuivent leur exploration des grands enjeux d’avenir en interrogeant l’impact de l’intelligence artificielle sur la démocratie. Alors que plus de la moitié de la population mondiale est appelée aux urnes en 2024, l’intelligence artificielle peut-elle protéger la démocratie des maux qui la menacent, ou risque-t-elle de signer sa perte ? L’intelligence artificielle peut-elle inaugurer un nouvel âge de la démocratie, en facilitant l’expression et la représentation des citoyens dans l’élaboration des politiques publiques ?
Tagaday, 1ère plateforme de veille médias, publie la deuxième édition de son Observatoire du traitement de l’intelligence artificielle dans les médias en France. Tagaday a mesuré la visibilité médiatique de l'IA et de ses grands secteurs sur la TV/radio, presse française et sites du web éditorial.
Une couverture médiatique en progression de 257% en 24 mois (2022-2024).
Avec 78% de part de voix en 2023 et 70% en 2024, ChatGPT est de loin l’intelligence artificielle la plus visible dans les médias.