3 liens privés
Après les deepfakes à caractère pornographiques, les chatbots imitant des personnes réelles. Si l’IA générative ouvre des perspectives en matière de création ou de résumés de contenus, elle est aussi facilement détournée à des fins malveillantes, et notamment de harcèlement.
Wired rapporte avoir dénombré plus de 50 bots construits à l’aide d’intelligence artificielle générative pour permettre aux internautes de dénuder des images de femmes sur Telegram, plateforme réputée être l’une des moins efficaces en termes de modérations. En parallèle, un autre cas d’usage d’IA générative se retrouve détourné à des fins malveillantes : la création de chatbots textuels et vocaux ressemblant à des personnes réelles.
Monopole, privatisation des données, lobbying, attention médiatique... Les Big Tech bénéficient d’un pouvoir si colossal que cela affecte la viabilité de nos démocraties. Face à ce constat, Lê Nguyen Hoang (derrière la chaîne YouTube Science4all), Jean-Lou Fourquet (derrière la chaîne YouTube ApresLaBiere, enseignant et journaliste) et Victor Fersing (fondateur du média vidéo La Fabrique Sociale) appellent à garder en tête les conflits d’intérêts au milieu desquels se trouvent beaucoup des figures emblématiques de la tech qui prennent la parole sur l’IA. Une tribune signée par 74 personnalités issues du monde académique, de l'entreprise et de membres de la société civile.
Ces géants du numérique ont aussi envahi le monde universitaire, notamment parce que, y compris en France, les partenariats public-privé sont encouragés, via par exemple les thèses CIFRE. Une étude saisissante révèle ainsi que 88 % des enseignants-chercheurs en IA ont été employés, ou ont obtenu des financements ou des récompenses des Big Tech. Pire encore, en éthique des algorithmes, ce taux passe à 97 %.
Enfin, leur lobbying intensif auprès des régulateurs, aussi bien aux États-Unis qu’à l’échelle européenne, a affaibli la régulation du numérique, notamment le DSA (Digital Services Act) et le réglement sur l’IA (AI Act), en profitant parfois de l’aide des pépites « européennes » comme Mistral AI (qui a ensuite établi un partenariat avec… Microsoft).
Il est urgent que tous, scientifiques, journalistes et citoyens, soyons beaucoup plus méfiants envers les narratifs diffusés par des « experts IA » se trouvant au centre de conflits d’intérêts.
« Nous avons toujours la possibilité de faire des choix qui sont essentiels... Le problème actuel est que nous renonçons à ce choix et laissons le débat sur l’ère future de l’IA à quelques individus. La société, les travailleurs, les syndicats doivent participer au débat sur l’IA. » La leçon du Prix Nobel d’économie 2024, Daron Acemoğlu.
C’est pour cela que parler des technologies numériques et de l’IA comme d’un simple phénomène économique ne suffit pas. Ce sont des outils d’information, ce qui signifie qu’ils influencent tous les aspects de notre vie sociale, y compris la participation démocratique et politique. [...] Il est impossible de construire une prospérité partagée si tous les outils du numérique poussent à l’automatisation et à la centralisation de l’information entre les mains de quelques grandes entreprises.
Dan McQuillan est maître de conférence au département d’informatique de l’université Goldsmiths de Londres. Il est l’auteur de "Resisting AI, an anti-fascist approach to artificial intelligence" (Résister à l’IA, une approche anti-fasciste de l’IA, Bristol University Press, 2022, non traduit).
“L’IA est utilisée comme une forme de “Stratégie du choc“, dans laquelle le sentiment d’urgence généré par une technologie censée transformer le monde est utilisé comme une opportunité pour transformer les systèmes sociaux sans débat démocratique.” Quand l’IA est convoquée pour transformer l’hôpital et l’école, c’est une diversion qui vise à nous masquer leur effondrement sous les coups d’un désinvestissement massif. Or, l’IA ne comprend ni la médecine ni l’éducation. La seule chose que les grands modèles d’IA font très bien, c’est de transférer le contrôle aux grandes entreprises, et ce alors qu’aucun autre acteur n’a les moyens ou la puissance de traiter les données qu’elles savent traiter.
The AI tools provided by companies like Palantir and Clearview raise questions about when and how invasive tech should be used in wartime.
“Ukraine is a living laboratory in which some of these AI-enabled systems can reach maturity through live experiments and constant, quick reiteration,” says Jorritt Kaminga, the director of global policy at RAIN, a research firm that specializes in defense AI. Yet much of the new power will reside in the hands of private companies, not governments accountable to their people.
“This is the first time ever, in a war, that most of the critical technologies are not coming from federally funded research labs but commercial technologies off the shelf,” says Steve Blank, a tech veteran and co-founder of the Gordian Knot Center for National Security Innovation at Stanford University. “And there’s a marketplace for this stuff. So the genie’s out of the bottle.”
C’est une nouvelle règle du jeu dans l’univers de la politique à l’ère numérique : un flot continu de contenus générés artificiellement caractérise désormais les campagnes électorales, avec l’essor d’outils gratuits, comme le clonage des voix ou l’édition d’images.
Au Pakistan, les dernières législatives [en 2018] témoignaient déjà d’une sophistication croissante des campagnes numériques : création de faux comptes, bombardements coordonnés de hashtags, applis mobiles personnalisées, organisation de grands événements à partir des réseaux sociaux… Et, en février 2024, le pays va vivre sa plus grande élection dématérialisée. Les partis politiques sont naturellement tentés de franchir un nouveau cap avec l’intelligence artificielle [IA].
Four in five (79%) online teenagers aged 13-17 now use generative AI tools and services, with a significant minority of younger children aged 7-12 also adopting the technology (40%).
Adult internet users aged 16 and above are, on average, comparatively more reluctant users of generative AI (31%). Among those who have never used this technology (69%), nearly one in four have no idea what it is (24%).
Snapchat My AI - which became freely available to all Snap users in April 2023 - is the most popular generative AI tool among children and teens, used by half (51%) of online 7–17-year-olds. Online teenage girls are its most avid users (75%).
ChatGPT is the most widely used generative AI service among internet users aged 16 and above (23%). Among online youngsters aged 7-17, boys are keener users of ChatGPT than girls (34% versus 14%).
Des chercheurs en bioéthique ont essayé de générer via Midjourney des photos de médecins noirs soignant des enfants blancs pauvres. Spoiler : c'est quasiment impossible, sauf à renforcer un autre stéréotype, celui du guérisseur traditionnel africain.
La création de Nightshade est révélatrice de l’inquiétude de nombre d’artistes et de créateurs de contenu face à la montée en puissance des IA génératives qui s’entraînent librement sur leurs œuvres. D’autant plus que, comme l’expliquent les chercheurs, « peu d’outils peuvent empêcher que leur contenu soit introduit dans un modèle d’IA générative contre leur volonté. Les listes d’exclusion ont été ignorées par les entraîneurs d’IA dans le passé et peuvent être facilement ignorées sans aucune conséquence ».
C’est pourquoi ils souhaitent mettre fin à cette « asymétrie de pouvoir » en incitant les fournisseurs d’IA générative à n’exploiter que les contenus non protégés par des droits d’auteur sous peine de voir leurs modèles d’apprentissage empoisonnés par Nightshade.
Le capital algorithmique : Accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle par Jonathan Durand Folco et Jonathan Martineau (2023)
Pour Jonathan Durand Folco et Jonathan Martineau, les changements techniques en cours sont tels que nous sommes entrés dans un nouveau stade du capitalisme : le capital algorithmique. En vingt thèses critiques, ils montrent comment la valorisation des données massives et le déploiement rapide de l’intelligence artificielle s’accompagnent de mutations socioéconomiques et politiques majeures. À la fois dynamique d’accumulation, rapport social et forme inédite de pouvoir basé sur les algorithmes, il s’agit d’une réalité multidimensionnelle qui bouleverse déjà profondément nos vies.
Voici un mini MOOC pour vous former rapidement à l’IA générative dans votre quotidien. Il s’agira de comprendre comment elle transforme notre vie de tous les jours, nos métiers et nos compétences.
À la fin de ce cours, vous saurez :
- Analyser quand l’IA générative apporte de la valeur dans notre vie, dans l’entreprise et dans les métiers et quels sont les risques
- Utiliser des outils d’IA générative (synthétiser, créer, faire es visuels, des rapports, de la veille, etc) pour vous aider dans votre travail quotidien
- Prendre conscience de cas d’usage en RH, industrie, Management d’entreprises qui ont réussi à intégrer l’IA générative pour transformer leurs pratiques (plus de 30 interviews)
- Découvrir les pratiques d’IA génératives d’entreprises en Inde et aux États Unis grâce aux interviews de nos Learning Expédition à Mumbai, Boston et World of IA à Cannes
Discover how actionable AI empowers systems to understand human inputs and take proactive actions based on context and learned behaviors.
Think of LAMs as intelligent assistants who not only understand your requests but also take initiative to fulfill them. This unique ability to combine language understanding with autonomous action holds immense potential for transforming various aspects of our lives.
Alors que nous approchons du second anniversaire du lancement de chatGPT et que le marché est toujours dans l’expectative du lancement de GPT-5, tous les regards sont tournés vers OpenAI, la nouvelle coqueluche des médias et des experts en NTIC. La sortie récente d’un modèle génératif capable de raisonner ouvre de nombreuses possibilités que seules…
Le terme « chatbot » désigne maintenant les IA de nouvelle génération, celles qui proposent une interface conversationnelle pour interagir avec un grand modèle de langage par l’intermédiaire de commandes textuelles, les prompts.
En combinant les modèles de langage, les modèles de parole, les modèles de vision, les modèles de raisonnement et les modèles d’action, il serait possible de mettre au point des IA beaucoup plus versatiles, capables de rendre des services à plus forte valeur ajoutée que des réponses générées par un chatbot à commandes textuelles.
Why is it that so many companies that rely on monetizing the data of their users seem to be extremely hot on AI? If you ask Signal president Meredith Whittaker (and I did), she’ll tell you it’s simply because “AI is a surveillance technology.”
“It requires the surveillance business model; it’s an exacerbation of what we’ve seen since the late ’90s and the development of surveillance advertising. AI is a way, I think, to entrench and expand the surveillance business model,” she said.
L’IA est en train de prendre sa place dans les logiciels que nous utilisons tous les jours. Après plusieurs mois de test, Google, Adobe et Microsoft ont annoncé la fin de la période d’essai gratuite. Pour continuer à profiter de leur intelligence artificielle respective, il va falloir payer.
Rumman Chowdhury, Timnit Gebru, Safiya Noble, Seeta Peña Gangadharan, and Joy Buolamwini open up about their artificial intelligence fears. Today the risks of artificial intelligence are clear — but the warning signs have been there all along.
Quand les psychologues décryptent le raisonnement des intelligences artificielles | The Conversation
En matière d’intelligence artificielle, les « grands modèles de langage » comme ChatGPT sont si complexes que leurs créateurs peinent à prévoir leurs comportements. La psychologie peut les y aider.
Nous avons utilisé des outils de psychologie cognitive traditionnellement utilisés pour étudier la rationalité chez l’être humain afin d’analyser le raisonnement de différents LLM, parmi lesquels ChatGPT. Nos travaux ont permis de mettre en évidence l’existence d’erreurs de raisonnements chez ces intelligences artificielles. Explications.
Artificial intelligence continues to be fed racist and sexist training materials and then distributed around the world.
AI systems are often trained on gargantuan data sets, usually scraped from the web for cost-effectiveness and ease. But this means AI can inherit all the biases of the humans who design them, and any present in the data that feeds them. The end result mirrors society, with all the ugliness baked in.
Dans une tribune publiée par le magazine Time, l’historien superstar Yuval Noah Harari craint que, grâce à leur maîtrise du langage, « les IA puissent nouer des relations intimes avec les gens et utiliser ce pouvoir pour changer leurs opinions et leurs visions du monde ». De quoi entrevoir, selon lui, « la fin potentielle de l'histoire humaine ».
La démocratisation de l’intelligence artificielle, via Midjourney, a facilité la diffusion d’une multitude de « photos d’époque » fictives. Des pseudo-images parfois difficiles à identifier et qui ont déjà servi à justifier des discours politiques.