3 liens privés
TRIBUNE // Derrière le «Sommet pour l’action sur l’IA;», l’intérêt général est instrumentalisé au profit des intérêts des classes dirigeantes pour continuer de mener des politiques discriminatoires d’exploitations sociales, écologiques et néocoloniales. C’est en tout cas la conviction que partage dans cette tribune le Mouton Numérique, collectif de réflexion technocritique sur les enjeux que posent les technologies à la société.
Le 12 février dernier, Usbek & Rica a organisé son troisième Book Club à la librairie Jonas, à Paris. L’occasion d’échanger avec la sociologue Dominique Méda autour de son essai Une société désirable, Comment prendre soin du monde (éditions Flammarion)... Mais aussi de revenir sur quelques questions d'actualité comme le Sommet de l'IA, qui s'est tenu à Paris les 10 et 11 février.
Magiques, autonomes, toutes puissantes : les intelligences artificielles nourrissent les rêves comme les cauchemars. Tandis que les géants de la tech promet...
L’IA s’impose comme un nouveau champ de bataille économique, social et politique. Les géants américains de la Tech développent bien souvent leurs activités en dehors de tout contrôle. Et parce que l’IA se déploie à une vitesse exponentielle, elle fait peser des menaces grandissantes sur nos droits fondamentaux. Face à cela, quelles législations sont déjà en œuvre ? Quelles sont leurs limites ? Pourquoi la réglementation s’impose-t-elle comme une urgence ?
Les responsables du quotidien américain ont diffusé une note en interne qui ouvre la voie à l’utilisation de l’intelligence artificielle générative par la rédaction, notamment pour les tâches de SEO ou de diffusion sur les réseaux sociaux, mais aussi des suggestions de rédaction.
Interrogé par Arrêt sur images, à qui nous avions transmis notre enquête à son sujet, le patron du groupe de presse Économie Matin reconnaît que ses articles sont bien générés par IA, contrairement à ce que son rédacteur en chef adjoint prétendait initialement. Ce dernier, par ailleurs « prompt engineer » du groupe, attribue de son côté les dizaines de plagiats que nous avons en outre identifiés à un « bug du script » envoyé à ChatGPT qui, « étant complètement idiot, parfois, ne fait pas ce qu'on lui dit ».
Plus de la moitié des réponses fournies par les assistants d’intelligence artificielle (IA) et reposant sur les articles de la BBC sont « factuellement incorrectes, trompeuses et potentiellement dangereuses ». Et 20 % d’entre elles ont en outre rajouté des « inexactitudes factuelles » qui ne figuraient pas dans les articles mentionnés.
La chercheuse Magalie Ochs revient sur le danger des biais et des stéréotypes qui infusent partout dans les intelligences artificielles. Elle donne également des pistes pour casser ce « cercle vicieux ». Les biais sont malheureusement liés aux intelligences artificielles. Elles vont les ingurgiter puis les recracher aux humains, avec des conséquences (même de manière inconsciente) sur leurs comportements. Cela va générer de nouvelles données, qui vont être utilisées pour entrainer des IA, etc. Un cercle vicieux qu’il faut briser.
À travers un article détaillé, le projet Limites Numériques nous décrit comment et pourquoi, à l'aide de choix de designs particuliers, l'IA s'impose dans nos outils numériques.
Comment les industries numériques transforment-elles nos esprits et nos sociétés ? Est-il possible de produire l'IA de manière collective, afin d'échapper à l'emprise des sociétés privées qui les mettent en pratique de manière opaque ?
Pour réconcilier puissance de calcul et sobriété, il faut comprendre mieux la consommation et les usages de ChatGPT, Midjourney et leurs acolytes – mais aussi développer de nouveaux systèmes.
L’enquête nous ayant permis de découvrir plus de 1 000 sites d’actualité alimentés au moyen d’intelligences artificielles génératives (GenAI) montre que leurs articles n’ont vraisemblablement pas été écrits par des journalistes ou rédacteurs, ni même relus ou corrigés avant publication. Notre méthodologie a par ailleurs été challengée et vérifiée par deux contributeurs expérimentés de l’encyclopédie […]
Next a identifié plus de 1 000 sites web d’information francophones faisant croire que leurs articles sont écrits par des journalistes ou des experts en la matière. Ils sont en fait générés et/ou traduits par des IA, sans le mentionner. Au moins une centaine reposent sur du plagiat, et près de 150 étaient mentionnés comme […]
L’utopie algorithmique des puissants est la dystopie algorithmique des démunis.
L’IA générative n’est pas tant une rupture qu’une continuité, explique le politologue Henry Farrell. Elle va produire surtout des déploiements ennuyeux et techniques permettant de fluidifier les organisations. Une société de la synthèse, qui va renforcer la cohérence plus que l’analyse.
Portés par les promesses de l’intelligence artificielle, les groupes d’édition scientifique comme Springer Nature (Nature, Scientific American) ou RELX (Cell, The Lancet) atteignent des sommets en Bourse. Marc Watkins, directeur de l’AI Institute for Teachers à l’université du Mississippi, revient sur les mutations à l’œuvre dans le petit monde des revues académiques.
En provoquant un coup de tonnerre sur le marché de l'intelligence artificielle, DeepSeek a attiré l'œil de tout le monde, dont celui de l'entreprise de sécurité informatique Wiz. Celle-ci a remarqué que la startup chinoise avait laissé une base de données accessible sur Internet sans aucune protection.
L’année 2025 est déjà particulièrement féconde en nouvelles plus fracassantes les unes que les autres sur les financements, la course aux armements entre la Chine et les USA, le sommet intergalactique sur l’IA à Paris, et les supposés progrès vers l’intelligence des IAs génératives. C’est un sujet courant de conversations dans le contexte privé ou professionnel. En réponse aux personnes qui s’étonnent de ma position résolument anti ChatGPT j’ai fini par construire un argumentaire que je vais développer ici.
Infomaniak dévoile son nouveau centre de données dédié à l'IA, pensé pour revaloriser l'énergie, et son offre d'IA générative.
Après avoir annoncé, l'arrivée de son « IA véritablement open source fondée sur la transparence, la confiance et l'efficacité », Linagora ferme « temporairement » son chatbot Lucie. Ce dernier a subi de nombreuses critiques sur les réseaux sociaux.