3 liens privés
Comment les industries numériques transforment-elles nos esprits et nos sociétés ? Est-il possible de produire l'IA de manière collective, afin d'échapper à l'emprise des sociétés privées qui les mettent en pratique de manière opaque ?
L’année 2025 est déjà particulièrement féconde en nouvelles plus fracassantes les unes que les autres sur les financements, la course aux armements entre la Chine et les USA, le sommet intergalactique sur l’IA à Paris, et les supposés progrès vers l’intelligence des IAs génératives. C’est un sujet courant de conversations dans le contexte privé ou professionnel. En réponse aux personnes qui s’étonnent de ma position résolument anti ChatGPT j’ai fini par construire un argumentaire que je vais développer ici.
Calculs ratés, fausses informations… La première version de l’IA générative soutenue par l’État français a fait les frais de nombreuses moqueries en raison de ses incohérences. Ses créateurs, eux, assurent que cette version n’est qu’une ébauche perfectible.
Comment savoir ce qui est vrai ou pas à l’heure de l’IA ? Informaticienne et philosophe, Aïda Elamrani travaille sur la conscience artificielle et l’éthique de l’intelligence artificielle au sein de l’institut Jean Nicod – département d’études cognitives de l’ENS. Elle prend la parole dans le cadre de sa participation à la 3ème édition du festival de science et fiction Les Mycéliades, qui a lieu dans 75 villes de France du 1 er au 16 février 2025.
En amont du sommet pour l’action sur l’intelligence artificielle, à Paris, en février, un rapport du Conseil économique, social et environnemental insiste sur le besoin de rendre cette technologique « acceptable ».
L’IA n’est qu’un miroir, une surface inerte nous captivant avec les illusions de profondeur qu’elle nous renvoie, explique la philosophe Shannon Vallor dans son livre The AI mirror (Oxford university press, 2024), qui nous invite à retrouver confiance dans nos capacités humaines.
La philosophe expliquait que le risque existentiel de l’IA n’est pas qu’elle nous submerge, mais qu’elle nous manipule et nous fasse renoncer à notre propre pouvoir, à notre autonomie et notre liberté, qu’on pense que nous devrions confier notre avenir à l’IA parce qu’elle serait plus rationnelle ou objective.
En cette fin d'année 2024 et deux ans après la sortie de ChatGPT, le débat sur le respect du droit d'auteur au sein des IA génératives émerge de nouveau avec la publication de deux rapports. L'un, du lobby France Digitale, préconise de faire reposer le respect de l'opt-out sur les ayants droit. L'autre est une étude de la Direction générale du Trésor.
France Digitale propose de modifier la loi pour l'adapter aux pratiques de l'industrie de l'IA générative. Ce lobby français veut que les entreprises du numérique ne rencontrent pas d'obstacle dans leur fouille massive du web. Mais pour faire passer la pilule aux sociétés d'ayants droits, le lobby propose la « création d’une nouvelle compensation forfaitaire des ayants droits par les fournisseurs de modèles d’IA générative, sur le modèle de la compensation pour copie privée ».
L’utilisation d’intelligences artificielles, dans certains cas, génère des risques de discriminations accrues ou encore de perte de confidentialité ; à tel point que l’Union européenne tente de réguler les usages de l’IA à travers différents niveaux de risques. Ceci pose d’autant plus question que la plupart des systèmes d’IA aujourd’hui ne sont pas en mesure de fournir des explications étayant leurs conclusions. Même les experts ne savent pas toujours comment les systèmes d’IA atteignent leurs décisions. Un nouveau domaine de recherche s’empare du problème : l’« IA explicable » est en plein essor.
Comment fonctionne une intelligence artificielle ou IA ? Quelles sont ses différentes applications, et quel est ou sera leur impact sur notre société ? Après cette vidéo, vous allez tout comprendre et aurez l'algorithme dans la peau !
Use of AI on images of the dead is unregulated in the country, leaving cybersecurity experts worried about the potential for deepfakes and identity theft.
J. García López, a funeral home in Mexico that launched its Día de Muertos campaign in October, received over 15,000 requests to create AI-generated videos of deceased persons. Daniela Rojas, senior program officer at Eon Institute, an AI-focused Mexican think tank, expressed concerns about how such companies store people’s images and biometrics.
Using AI to resurrect the dead has raised ethical questions elsewhere. In 2020, Jang Ji-sung, a mother of four in South Korea, was virtually reunited with an AI-generated avatar of her dead 7-year-old daughter. Ji-sung had said this helped her say farewell to her child, but “many psychologists have come up and said this might, in some cases, make the grieving process longer”. The discussion has yet to take hold in Mexico, where the practice of digital resurrections exploded in popularity this year.
Alors que le développement de l’intelligence artificielle progresse à une vitesse fulgurante, certains des hommes les plus riches du monde sont peut-être en train de décider du sort de l’humanité. Les prévisions en matière d’évolution de l’IA oscillent entre promesses évolutionnistes peu crédibles et anticipations dans lesquelles l’IA menacerait l’existence même de l’espèce humaine.
Cette thèse d’une possible extinction de notre espèce se déploie dans différents milieux, dont certains liés à l’industrie de l’IA, et incitent certains acteurs à en appeler à un ralentissement voire un arrêt total de son développement.
Tandis que l’idée du risque existentiel semble gagner du terrain rapidement, une grande publication publie presque chaque semaine un essai soutenant que le risque existentiel détourne l’attention des préjudices existants. Pendant ce temps, beaucoup plus d’argent et de personnes sont discrètement consacrés à rendre les systèmes d’IA plus puissants qu’à les rendre plus sûrs ou moins biaisés.
De la même manière que les logiciels ont « mangé le monde« , il faut s’attendre à ce que l’IA présente une dynamique similaire de « winner-takes-all » qui conduira à des concentrations de richesse et de pouvoir encore plus importantes.
Seul le temps pourra donc confirmer ou infirmer le caractère anthropologiquement révolutionnaire de l’IA. Une chose est sûre cependant : l’organisation sociale dont émane l’intelligence artificielle actuellement dominante, celle que l’artiste et essayiste James Bridle nomme « corporate AI », n’a strictement rien de révolutionnaire, tant elle repose sur une « industrie extractive » qui exploite violemment les ressources naturelles et la main-d’œuvre bon marché. Les sources d’informations sur la réalité de ce système ne manquent plus et se multiplient. Les conditions de production de l’IA interrogent donc notre rapport collectif à l’altérité humaine et non-humaine et font de l’intelligence artificielle un enjeu moral autant que politique, technique et économique. C’est cet enjeu moral que je voudrais détailler ici en développant l’idée que l’IA dominante telle qu’elle est faite est un dispositif rendu possible par notre « froideur bourgeoise », pour reprendre le concept du philosophe allemand Théodore W. Adorno.
De la même façon que la mise à mort des animaux d’élevage se fait dans des abattoirs situés en périphérie des villes, c’est-à-dire à l’abri des regards, nous ne sommes jamais confronté·es en personne aux maltraitances et aux destructions qu’occasionne l’industrie de l’IA. Loin des yeux, loin du cœur, donc. Cette distanciation morale est d’ailleurs renforcée par le mirage d’immatérialité qui auréole les systèmes d’intelligence artificielle.
Face au nombre croissant de décisions administratives individuelles prises sur la base de résultats livrés par des algorithmes ou systèmes d’IA, la Défenseure des droits s’inquiète des risques qu’induit cette algorithmisation des services publics pour les droits des usagers. Elle présente plusieurs recommandations afin que les garanties prévues par la loi soient pleinement concrétisées.
L’utilisation des données personnelles par les grandes plateformes de réseaux sociaux suscite un vif débat, à la lumière des récentes découvertes concernant LinkedIn, Snapchat et Meta. Ces entreprises exploitent les informations publiques de leurs utilisateurs pour former des modèles d’intelligence artificielle sans que ces derniers en soient pleinement conscients.
L'intelligence artificielle pilotant des drones kamikazes ou faisant patrouiller des chiens robots dans les rues de New York : la science-fiction est en train de devenir réalité. Des experts nous exposent comment l’IA révolutionne déjà les conflits contemporains et nous avertissent des dangers potentiels pour l’humanité.
En explorant les théâtres des conflits contemporains, ouverts ou larvés, et les impressionnantes technologies déjà exploitées par les nations en pointe – de la Russie à Israël, de la Chine aux États-Unis –, des spécialistes de la robotique exposent à quel point l'intelligence artificielle a déjà profondément révolutionné le domaine militaire. Ils nous avertissent de ses risques pour l'avenir, auxquels l'Union européenne, construite sur un idéal de paix, semble encore assez mal préparée : si le déploiement d'armes entièrement autonomes est désormais de l'ordre du possible, c'est aux États de légiférer pour éviter une dangereuse escalade dans la course à l'armement.
Un film documentaire de Daniel Andrew Wunderer disponible sur arte.tv jusqu'au 31/10/2027
État des lieux des avancées en matière d’intelligence artificielle en Europe, à l’aube d’une nouvelle ère aux bouleversements encore inconnus.
Devancée par les États-Unis et la Chine, l’Europe tente aujourd’hui de rester dans la course effrénée à l’intelligence artificielle (IA), et compte un nombre toujours croissant de start-up spécialisées en la matière. Jonas Andrulis, fondateur d’Aleph Alpha, une société établie à Heidelberg en Allemagne, cherche à générer une IA capable de fluidifier le travail de l’administration publique. Le Français Thomas Wolf, cofondateur de la plate-forme Hugging Face, privilégie, lui, une forme en open source accessible à tous, afin de la nourrir des retours des usagers. Quant à Han Xiao, à l’origine de la start-up berlinoise Jina AI, il ambitionne de créer une intelligence artificielle générative (c’est-à-dire capable de créer des contenus de façon autonome), en mesure de dépasser ChatGPT.
Un film documentaire de Dominik Bretsch, Maximilian Villwock, Mehran Djojan, Sebastian Weis et Ellen Xu disponible sur arte.tv jusqu'au 26/02/2025
Monopole, privatisation des données, lobbying, attention médiatique... Les Big Tech bénéficient d’un pouvoir si colossal que cela affecte la viabilité de nos démocraties. Face à ce constat, Lê Nguyen Hoang (derrière la chaîne YouTube Science4all), Jean-Lou Fourquet (derrière la chaîne YouTube ApresLaBiere, enseignant et journaliste) et Victor Fersing (fondateur du média vidéo La Fabrique Sociale) appellent à garder en tête les conflits d’intérêts au milieu desquels se trouvent beaucoup des figures emblématiques de la tech qui prennent la parole sur l’IA. Une tribune signée par 74 personnalités issues du monde académique, de l'entreprise et de membres de la société civile.
Ces géants du numérique ont aussi envahi le monde universitaire, notamment parce que, y compris en France, les partenariats public-privé sont encouragés, via par exemple les thèses CIFRE. Une étude saisissante révèle ainsi que 88 % des enseignants-chercheurs en IA ont été employés, ou ont obtenu des financements ou des récompenses des Big Tech. Pire encore, en éthique des algorithmes, ce taux passe à 97 %.
Enfin, leur lobbying intensif auprès des régulateurs, aussi bien aux États-Unis qu’à l’échelle européenne, a affaibli la régulation du numérique, notamment le DSA (Digital Services Act) et le réglement sur l’IA (AI Act), en profitant parfois de l’aide des pépites « européennes » comme Mistral AI (qui a ensuite établi un partenariat avec… Microsoft).
Il est urgent que tous, scientifiques, journalistes et citoyens, soyons beaucoup plus méfiants envers les narratifs diffusés par des « experts IA » se trouvant au centre de conflits d’intérêts.
« Nous avons toujours la possibilité de faire des choix qui sont essentiels... Le problème actuel est que nous renonçons à ce choix et laissons le débat sur l’ère future de l’IA à quelques individus. La société, les travailleurs, les syndicats doivent participer au débat sur l’IA. » La leçon du Prix Nobel d’économie 2024, Daron Acemoğlu.
C’est pour cela que parler des technologies numériques et de l’IA comme d’un simple phénomène économique ne suffit pas. Ce sont des outils d’information, ce qui signifie qu’ils influencent tous les aspects de notre vie sociale, y compris la participation démocratique et politique. [...] Il est impossible de construire une prospérité partagée si tous les outils du numérique poussent à l’automatisation et à la centralisation de l’information entre les mains de quelques grandes entreprises.
Rumman Chowdhury, Timnit Gebru, Safiya Noble, Seeta Peña Gangadharan, and Joy Buolamwini open up about their artificial intelligence fears. Today the risks of artificial intelligence are clear — but the warning signs have been there all along.
Avec la sortie de GPT-4, la ferveur médiatique autour des IA génératives atteint des sommets. Présentés comme la solution miracle à tous nos problèmes, les modèles génératifs nourrissent tous les fantasmes des techno-utopistes et "experts en IA" de Twitter. Pourtant ils ne résolvent en rien les problèmes des entreprises (cloisonnement des données et connaissances, système d’information sclérosé, gigantesque dette numérique…) et risquent même d’aggraver l’infobésité ou la désinformation. Plutôt que de participer à l’hystérie collective, je préfère adopter une approche critique et poser une question essentielle : quel problème essaye-t-on de résoudre ?
Cela fait 15 ans que nous nous plaignons et cherchons à lutter contre l’infobésité, pourquoi se réjouir de l’avènement des IA génératives ? Est-ce que ça ne serait pas plus viable d’apprendre aux collaborateurs à envoyer moins d’emails et à reporter les pratiques de communication / collaboration sur des outils qui sont conçus pour ?