3 liens privés
Dans un billet initialement publié sur son blog que nous repartageons ici avec son accord, l'artiste franco-canadien Grégory Chatonsky, qui s’intéresse à la relation humain-technique, s’interroge sur la manière dont notre rapport aux images a mené à rendre acceptable le salut nazi fait par Elon Musk lors de la cérémonie d’investiture de Donald Trump, le 20 janvier dernier.
Dans la cacophonie médiatique comme dans le fond des sujets, l’appréhension et la hiérarchisation des risques de l’intelligence artificielle vise souvent à côté, et les réponses aux antédiluviennes questions sur les dégâts du progrès sont toujours attendues. Nous souhaitons avec ce texte, réarmer le débat sur l’IA en portant l’attention – un peu arbitrairement peut-être – sur quatre angles morts qui le polluent actuellement.
De manière générale, les médias commentent les percées technologiques (souvent très relatives) et le développement économique, au détriment des questions sociales et éthiques. Et lorsque celles-ci surgissent, elles puisent le plus souvent dans un répertoire de références populaires issues de la science-fiction.
C’est là un autre point aveugle dans le débat sur les risques de l’IA : la qualité de la négociation locale à propos de la légitimité de son déploiement et, le cas échéant, ses modes de diffusion au sein des entreprises.
Monopole, privatisation des données, lobbying, attention médiatique... Les Big Tech bénéficient d’un pouvoir si colossal que cela affecte la viabilité de nos démocraties. Face à ce constat, Lê Nguyen Hoang (derrière la chaîne YouTube Science4all), Jean-Lou Fourquet (derrière la chaîne YouTube ApresLaBiere, enseignant et journaliste) et Victor Fersing (fondateur du média vidéo La Fabrique Sociale) appellent à garder en tête les conflits d’intérêts au milieu desquels se trouvent beaucoup des figures emblématiques de la tech qui prennent la parole sur l’IA. Une tribune signée par 74 personnalités issues du monde académique, de l'entreprise et de membres de la société civile.
Ces géants du numérique ont aussi envahi le monde universitaire, notamment parce que, y compris en France, les partenariats public-privé sont encouragés, via par exemple les thèses CIFRE. Une étude saisissante révèle ainsi que 88 % des enseignants-chercheurs en IA ont été employés, ou ont obtenu des financements ou des récompenses des Big Tech. Pire encore, en éthique des algorithmes, ce taux passe à 97 %.
Enfin, leur lobbying intensif auprès des régulateurs, aussi bien aux États-Unis qu’à l’échelle européenne, a affaibli la régulation du numérique, notamment le DSA (Digital Services Act) et le réglement sur l’IA (AI Act), en profitant parfois de l’aide des pépites « européennes » comme Mistral AI (qui a ensuite établi un partenariat avec… Microsoft).
Il est urgent que tous, scientifiques, journalistes et citoyens, soyons beaucoup plus méfiants envers les narratifs diffusés par des « experts IA » se trouvant au centre de conflits d’intérêts.
Tagaday, 1ère plateforme de veille médias, publie la deuxième édition de son Observatoire du traitement de l’intelligence artificielle dans les médias en France. Tagaday a mesuré la visibilité médiatique de l'IA et de ses grands secteurs sur la TV/radio, presse française et sites du web éditorial.
Une couverture médiatique en progression de 257% en 24 mois (2022-2024).
Avec 78% de part de voix en 2023 et 70% en 2024, ChatGPT est de loin l’intelligence artificielle la plus visible dans les médias.
Tant la figure de l’algorithme que celle de l’intelligence artificielle (IA) bénéficient d’une popularité sans pareille dans les médias. Cet engouement est d’autant plus surprenant en regard de la technicité de ce thème. Malheureusement, ce traitement médiatique relègue souvent l’analyse du sujet à des considérations techniques au détriment de ses dimensions sociales. Pourtant, si ces artefacts informatiques étranges méritent bien d’être questionnés au sein de l’espace public, c’est pour l’influence qu’ils peuvent exercer aujourd’hui sur nos modes de vie et nos opportunités de faire société. Lorsque l’on parle à la fois d’influence et d’IA, c’est la thématique des « biais algorithmiques » qui fait généralement les gros titres. À travers cet article, nous allons essayer d’insérer un peu de nuance dans ce débat sans pour autant négliger certaines technicités.