3 liens privés
Four in five (79%) online teenagers aged 13-17 now use generative AI tools and services, with a significant minority of younger children aged 7-12 also adopting the technology (40%).
Adult internet users aged 16 and above are, on average, comparatively more reluctant users of generative AI (31%). Among those who have never used this technology (69%), nearly one in four have no idea what it is (24%).
Snapchat My AI - which became freely available to all Snap users in April 2023 - is the most popular generative AI tool among children and teens, used by half (51%) of online 7–17-year-olds. Online teenage girls are its most avid users (75%).
ChatGPT is the most widely used generative AI service among internet users aged 16 and above (23%). Among online youngsters aged 7-17, boys are keener users of ChatGPT than girls (34% versus 14%).
Des chercheurs en bioéthique ont essayé de générer via Midjourney des photos de médecins noirs soignant des enfants blancs pauvres. Spoiler : c'est quasiment impossible, sauf à renforcer un autre stéréotype, celui du guérisseur traditionnel africain.
Le capital algorithmique : Accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle par Jonathan Durand Folco et Jonathan Martineau (2023)
Pour Jonathan Durand Folco et Jonathan Martineau, les changements techniques en cours sont tels que nous sommes entrés dans un nouveau stade du capitalisme : le capital algorithmique. En vingt thèses critiques, ils montrent comment la valorisation des données massives et le déploiement rapide de l’intelligence artificielle s’accompagnent de mutations socioéconomiques et politiques majeures. À la fois dynamique d’accumulation, rapport social et forme inédite de pouvoir basé sur les algorithmes, il s’agit d’une réalité multidimensionnelle qui bouleverse déjà profondément nos vies.
Why is it that so many companies that rely on monetizing the data of their users seem to be extremely hot on AI? If you ask Signal president Meredith Whittaker (and I did), she’ll tell you it’s simply because “AI is a surveillance technology.”
“It requires the surveillance business model; it’s an exacerbation of what we’ve seen since the late ’90s and the development of surveillance advertising. AI is a way, I think, to entrench and expand the surveillance business model,” she said.
L’IA est en train de prendre sa place dans les logiciels que nous utilisons tous les jours. Après plusieurs mois de test, Google, Adobe et Microsoft ont annoncé la fin de la période d’essai gratuite. Pour continuer à profiter de leur intelligence artificielle respective, il va falloir payer.
Rumman Chowdhury, Timnit Gebru, Safiya Noble, Seeta Peña Gangadharan, and Joy Buolamwini open up about their artificial intelligence fears. Today the risks of artificial intelligence are clear — but the warning signs have been there all along.
Artificial intelligence continues to be fed racist and sexist training materials and then distributed around the world.
AI systems are often trained on gargantuan data sets, usually scraped from the web for cost-effectiveness and ease. But this means AI can inherit all the biases of the humans who design them, and any present in the data that feeds them. The end result mirrors society, with all the ugliness baked in.
Dans une tribune publiée par le magazine Time, l’historien superstar Yuval Noah Harari craint que, grâce à leur maîtrise du langage, « les IA puissent nouer des relations intimes avec les gens et utiliser ce pouvoir pour changer leurs opinions et leurs visions du monde ». De quoi entrevoir, selon lui, « la fin potentielle de l'histoire humaine ».
La démocratisation de l’intelligence artificielle, via Midjourney, a facilité la diffusion d’une multitude de « photos d’époque » fictives. Des pseudo-images parfois difficiles à identifier et qui ont déjà servi à justifier des discours politiques.
Pour alimenter les modèles d’IA et valider les algorithmes, le travail humain est indispensable. Enquête à Madagascar sur les dessous de « l’IA à la française ».
Récemment une enquête du Time révélait que des travailleurs kényans payés moins de trois euros de l’heure étaient chargés de s’assurer que les données utilisées pour entraîner ChatGPT ne comportaient pas de contenu à caractère discriminatoire.
Rendre visible l’implication de ces travailleurs c’est questionner des chaînes de production mondialisées, bien connues dans l’industrie manufacturière, mais qui existent aussi dans le secteur du numérique. Ces travailleurs étant nécessaires au fonctionnement de nos infrastructures numériques, ils sont les rouages invisibles de nos vies numériques. C’est aussi rendre visible les conséquences de leur travail sur les modèles. Une partie des biais algorithmiques résident en effet dans le travail des données, pourtant encore largement invisibilisé par les entreprises. Une IA réellement éthique doit donc passer par une éthique du travail de l’IA.
Avec la sortie de GPT-4, la ferveur médiatique autour des IA génératives atteint des sommets. Présentés comme la solution miracle à tous nos problèmes, les modèles génératifs nourrissent tous les fantasmes des techno-utopistes et "experts en IA" de Twitter. Pourtant ils ne résolvent en rien les problèmes des entreprises (cloisonnement des données et connaissances, système d’information sclérosé, gigantesque dette numérique…) et risquent même d’aggraver l’infobésité ou la désinformation. Plutôt que de participer à l’hystérie collective, je préfère adopter une approche critique et poser une question essentielle : quel problème essaye-t-on de résoudre ?
Cela fait 15 ans que nous nous plaignons et cherchons à lutter contre l’infobésité, pourquoi se réjouir de l’avènement des IA génératives ? Est-ce que ça ne serait pas plus viable d’apprendre aux collaborateurs à envoyer moins d’emails et à reporter les pratiques de communication / collaboration sur des outils qui sont conçus pour ?
Les algorithmes sont pleins de biais, notamment sociaux, plus ou moins inquiétants. Les cas de biais algorithmiques aux effets inquiétants sur la société se multiplient. Et malgré la conscience croissante du problème, la multiplication de systèmes dits d’« intelligence artificielle » (IA) ne montre pas le moindre signe de ralentissement. Quels sont les outils à disposition, dans ce cas, pour éviter que ces machines ne nuisent à différents segments de la population ? Et dans quelle mesure fonctionnent-ils ? Qu’implique le fait de vouloir les corriger ?
Stanford pointe le manque de transparence dans les grands modèles d’intelligence artificielle | Next
Alors que les travaux se multiplient pour réguler le domaine de l'intelligence artificielle, l'équipe du Centre de recherche sur les modèles de fondation de Stanford dévoile un index d'analyse de la transparence des modèles d'IA généralistes. Résultat de la toute première analyse : tout le monde peut (largement) mieux faire.
Selon une étude menée par Rishi Bommasani et plusieurs autres chercheurs du Center for Research on Foundation Models (CRFM) de l’Institute for Human-Centered Artificial Intelligence (HAI) de Stanford, ni Meta, ni Hugging Face, ni Open AI (qui contient pourtant le mot « open » dans son nom) ni Google n’explosent les scores en matière de transparence de leurs modèles de fondation. Selon les scientifiques, ils sont même de moins en moins transparents.
Artificial intelligence had its breakout year in 2023, with large language models (LLMs) and text-to-image generators capturing the attention and imagination of technologists and investors alike.
Que signifient AGI (intelligence artificielle générale) ? Frontier AI ? modèle de fondation ? general purpose AI ? Tentatives de définition.
La question de la régulation de l’intelligence artificielle est majeure. Elle articule une variété de courants, des plus techno-optimistes, plaidant l’adaptation à un avenir déjà écrit, aux oppositions plus frontales aux technologies numériques et à la « civilisation industrielle » dans son ensemble. Entre les deux, on retrouve les approches régulationnistes, engageant à encadrer davantage le développement de l’IA dans un esprit de responsabilité. Un domaine en particulier est souvent mentionné dans ce champ : la « regulation by design » (RbD). Il s’agit en résumé, d’incorporer les régulations en vigueur à la conception des systèmes, ce qui ne va pas sans poser quelques questions.
Prévenir les canicules, gérer les feux... Les masses de données manipulées par l’intelligence artificielle peuvent être utiles à la transition. Mais l'outil, ultrapolluant, n'est pas un remède miracle à la crise climatique.
« Dire que l’IA va tout résoudre est un discours technosolutionniste »
Tech CEOs want us to believe that generative AI will benefit humanity. They are kidding themselves.
Why call the errors “hallucinations” at all? Why not algorithmic junk? Or glitches? Well, hallucination refers to the mysterious capacity of the human brain to perceive phenomena that are not present, at least not in conventional, materialist terms. By appropriating a word commonly used in psychology, psychedelics and various forms of mysticism, AI’s boosters, while acknowledging the fallibility of their machines, are simultaneously feeding the sector’s most cherished mythology: that by building these large language models, and training them on everything that we humans have written, said and represented visually, they are in the process of birthing an animate intelligence on the cusp of sparking an evolutionary leap for our species.
N’étant pas juriste, c’est avec prudence et humilité que je vous partage la réflexion suivante. Comment est-ce possible qu’on laisse encore des entreprises privées lancer ce qu’il faut bien appeler des expérimentations à grande échelle, sans dispositif de contrôle, sur des produits aussi potentiellement dangereux que des programmes d’intelligence artificielle comme ChatGPT ? Alors que de l’aveu même de nombreux chercheurs en pointe dans le domaine, « on ne sait pas encore pourquoi ça marche aussi bien ».
Dans ce cours, vous découvrirez ce que recouvre vraiment l'intelligence artificielle : ses enjeux, ses possibilités, son fonctionnement scientifique ainsi que ses sous-disciplines, comme le Machine Learning et le Deep Learning.