3 liens privés
Une étude récente concernant l'utilisation de l'IA par les étudiant·es.
« La proportion d'étudiants utilisant des outils d'IA générative tels que ChatGPT pour leurs évaluations est passée de 53 % l'année dernière à 88 % cette année. »
« La proportion d'étudiants déclarant utiliser un outil d'IA est passée de 66 % l'année dernière à 92 % cette année. »
Dans son dernier essai, le sociologue Juan Sebastian Carbonell démontre que la montée en puissance de l’intelligence artificielle entraîne une « déqualification » et une « précarisation » des travailleurs dans de nombreux secteurs d’activité.
« […] l’intelligence artificielle tend à « simplifi[er], standardis[er] ou parcellis[er] » des métiers, indépendamment du niveau de qualification exigé pour les exercer »
Dans son livre Un taylorisme augmenté. Critique de l’intelligence artificielle paru aux éditions Amsterdam le 5 septembre, le sociologue Juan Sebastián Carbonell appelle à résister à l’emprise de l’IA, cet « outil de dégradation du travail ». Entretien.
Les entreprises des Big Tech qui travaillent sur les IA génératives ont tout à gagner de considérer ces dernières comme des outils. Or, nous savons depuis longtemps que la technique n'est pas neutre. Et pourtant, le sujet revient comme un marronnier : il est toujours renouvelé par ceux qui ont un intérêt à réduire la technique à ses aspects purement utilitaires. Les IA génératives ne relèvent pas uniquement de l’outillage fonctionnel, mais participent à la reconfiguration des structures sociales et des subjectivités contemporaines. Elles doivent être pensées comme des systèmes techniques complexes, produits par un faisceau de déterminations économiques, énergétiques, géopolitiques et culturelles, et non comme de simples extensions de la main humaine.
Olivier Lefebvre · Inéluctable, l'IA ? Discutable en tout cas : comme tout système technique, son adoption fait changer la société. Analyse.
ChatGPT induit des psychoses à certain·es utilisateurices via ses réponses.
À travers des réponses renforçant des comportements psychotiques, certain·es utilisateurices de ChatGPT développent des psychoses et des délires complotistes.
OpenAI, l'entreprise derrière ChatGPT, a d'ailleurs dû annuler une mise à jour de ChatGPT-4o qui était trop flatteuse envers l'utilisateurice.
En anglais.
L'introduction des IA dans une organisation même réalisée de manière "raisonnée" ou "responsable" posent un tas de problèmes. Il y a un effet cliquet : après l'introduction d'une nouvelle technologie, il est quasi-impossible de revenir en arrière. Au contraire, petit à petit, le terrain s'érode et les limites sont à chaque fois repoussées. Or, il est plus qu'urgent de résister le plus possible.
Un dossier de Basta! sur le coût environnemental (et social) de l'IA.
La chercheuse Magalie Ochs revient sur le danger des biais et des stéréotypes qui infusent partout dans les intelligences artificielles. Elle donne également des pistes pour casser ce « cercle vicieux ». Les biais sont malheureusement liés aux intelligences artificielles. Elles vont les ingurgiter puis les recracher aux humains, avec des conséquences (même de manière inconsciente) sur leurs comportements. Cela va générer de nouvelles données, qui vont être utilisées pour entrainer des IA, etc. Un cercle vicieux qu’il faut briser.
L’utopie algorithmique des puissants est la dystopie algorithmique des démunis.
L’IA générative n’est pas tant une rupture qu’une continuité, explique le politologue Henry Farrell. Elle va produire surtout des déploiements ennuyeux et techniques permettant de fluidifier les organisations. Une société de la synthèse, qui va renforcer la cohérence plus que l’analyse.
Inspiré par le « modèle » niçois, le maire de Vernon expérimente depuis bientôt un an l’Intelligence artificielle pour verbaliser les auteurs de dépôts sauvages. Il entend désormais étendre l’usage de l’IA pour automatiser d’autres tâches.
Comment savoir ce qui est vrai ou pas à l’heure de l’IA ? Informaticienne et philosophe, Aïda Elamrani travaille sur la conscience artificielle et l’éthique de l’intelligence artificielle au sein de l’institut Jean Nicod – département d’études cognitives de l’ENS. Elle prend la parole dans le cadre de sa participation à la 3ème édition du festival de science et fiction Les Mycéliades, qui a lieu dans 75 villes de France du 1 er au 16 février 2025.
Pour améliorer leurs candidatures, se préparer à des entretiens ou des «photos professionnelles», 77 % des chômeurs interrogés dans une enquête publiée ce jeudi 23 janvier par l’observatoire de l’IA et l’emploi avouent utiliser l'outil.
Deux chercheurs avancent que l'explosion de l'IA générative et notre familiarité croissante avec leurs chatbots ouvrent la voie à un nouveau marché de collecte et d'analyse de nos « intentions ». Ils redoutent que cela puisse influencer et biaiser l'accès à l'information, la concurrence libre et non faussée, et jusqu'aux élections.
Le collectif Impact AI, en collaboration avec le cabinet d’audit et de conseil KPMG et BNP Paribas, a publié hier la première édition de son “Observatoire de l’IA responsable”. Ce rapport, réalisé avec l’institut de sondage Viavoice et le centre de prospective GCF, analyse les perceptions des salariés du secteur privé en France quant au déploiement de l’IA dans leur entreprise.
En Arizona, à la rentrée de septembre 2025, le professeur des élèves d’une école de Phoenix sera l’intelligence artificielle de leur ordinateur.
Cette expérience va concerner environ 250 élèves, du CM1 à la quatrième. C’est en fait une école en ligne. Le matin, pendant deux heures, les enfants apprennent par ordinateur des matières traditionnelles - lecture, grammaire, mathématiques, sciences. L’après-midi est consacrée à des sujets plus concrets : parler en public, coder en informatique, travailler en équipe, s’initier à la gestion de l’argent, découvrir les bases de l’entrepreneuriat.
Problème : malgré tous les efforts réalisés par les éditeurs ces deux dernières années pour forcer l’adoption de l’IA générative, la majeure partie des salariés ne sont pas prêts. Pour s’en convaincre, il suffit de constater ce à quoi s’évertuent tous les cabinets conseil et ESN de France et de Navarre : définir des cas d’usage. C’est un peu comme si on listait toutes les destinations accessibles en voiture pour vous motiver à passer votre permis de conduire.
Le constat que je peux faire est le suivant : Si vous avez besoin de lister et de décrire des cas d’usage, c’est que les utilisateurs n’ont aucune idée de ce qu’est l’IA, de ce à quoi elle peut leur servir, et surtout qu’ils n’ont pas envie de s’y intéresser !
Ne vous y trompez pas : Dire en 2025 que l’IA va tout balayer et bouleverser le monde du travail est comme de dire en 1985 que l’informatique va tout balayer et bouleverser le monde du travail : une prévision très vague, insipide, sans réelle prise de risque ni conviction. C’est simplement un moyen d’attirer l’attention, d’occuper l’espace médiatique.
En amont du sommet sur l'IA, les participants au projet Dial-IA, visant à faciliter le dialogue social technologique au sein des entreprises et des administrations, ont présenté les résultats de leurs travaux.
En pratique, Dial-IA propose différents arguments et documents susceptibles de servir au sein des organisations : un registre des systèmes d’IA, pour faciliter la collecte d’information (et le suivi) des projets, des kits de survie pour mener les dialogues sociaux en entreprise ou dans les administrations, mais aussi des fiches visant à faciliter les discussions à des moments spécifiques du déploiement des systèmes