Quotidien Shaarli

Tous les liens d'un jour sur une page.

Hier - December 4, 2024

ChatGPT : en deux ans, le recours à l’IA générative est devenu systématique chez les élèves | La Croix
thumbnail

Deux ans après le lancement en France de l’agent conversationnel ChatGPT, le 30 novembre 2022, les élèves interrogés par La Croix disent y avoir largement recours pour faire leurs devoirs. Les professeurs, eux, cherchent encore la parade.

Deux ans de ChatGPT et de discours apocalyptiques | Podcast IA qu’à m’expliquer – Le Temps
thumbnail

IA qu’à m’expliquer profite des deux ans de ChatGPT pour recevoir pour ce 15e épisode le journaliste français Thibault Prévost, qui vient de publier Les prophètes de l’IA, pourquoi la Silicon Valley nous vend l’apocalypse (Ed. Lux). Il décortique la façon dont les Sam Altman et autres Elon Musk promeuvent l’intelligence artificielle de façon à anesthésier toute discussion politique sur l’idéologie qui se cache derrière leurs technologies. Un podcast qui s’intéresse également à la stagnation des entreprises qui développent ces grands modèles de langage.

Why ‘open’ AI systems are actually closed, and why this matters | nature

This paper examines ‘open’ AI. Claims about ‘open’ AI often lack precision, frequently eliding scrutiny of substantial industry concentration in large-scale AI development and deployment, and often incorrectly applying understandings of ‘open’ imported from free and open-source software to AI systems. At present, powerful actors are seeking to shape policy using claims that ‘open’ AI is either beneficial to innovation and democracy, on the one hand, or detrimental to safety, on the other. When policy is being shaped, definitions matter.

To add clarity to this debate, we examine the basis for claims of openness in AI, and offer a material analysis of what AI is and what ‘openness’ in AI can and cannot provide: examining models, data, labour, frameworks, and computational power. We highlight three main affordances of ‘open’ AI, namely transparency, reusability, and extensibility, and we observe that maximally ‘open’ AI allows some forms of oversight and experimentation on top of existing models. However, we find that openness alone does not perturb the concentration of power in AI. Just as many traditional open-source software projects were co-opted in various ways by large technology companies, we show how rhetoric around ‘open’ AI is frequently wielded in ways that exacerbate rather than reduce concentration of power in the AI sector.

Plus de 50 % des longs billets publiés sur LinkedIn en anglais seraient générés par des IA | Next
thumbnail

Après avoir analysé un échantillon de 8 795 posts LinkedIn publics de plus de 100 mots publiés entre janvier 2018 et octobre 2024, la start-up de détection de contenus générés par IA Originality a découvert que le nombre de messages longs susceptibles d'avoir été générés par IA avait explosé de 189 % dans les mois suivants le lancement de ChatGPT.

Elle estime aussi que 54 % des articles longs publiés en octobre 2024 en anglais sur LinkedIn ont probablement été générés par IA. De plus, les messages longs assistés par l'IA affichent une augmentation du nombre de mots de 107 % comparé à la période précédant le lancement de ChatGPT.

Pretty much all Gen Z knowledge workers are using AI, survey finds | Axios

In the late summer, Google surveyed 1,005 full-time knowledge workers, age 22-39, who are either in leadership roles or aspire to one. 93% of Gen Z respondents, age 22 - 27 and 79% of millennials (28 - 39), said they were using two or more AI tools a week — such as ChatGPT, DALL-E, Otter.ai, and other generative AI products.

Cette chapelle suisse a remplacé son confessionnal par une IA de Jésus | Usbek & Rica
thumbnail

Dans la ville suisse de Lucerne, la chapelle Saint-Pierre a installé pendant deux mois un dispositif baptisé Deus in Machina en lieu et place de son confessionnal. Soit un « Jésus [virtuel] équipé d’une intelligence artificielle, capable de dialoguer dans 100 langues différentes ».

IA, réducteur culturel : vers un monde de similitudes | Dans les algorithmes
thumbnail

Plus une caractéristique culturelle est inhabituelle, moins elle a de chances d’être mise en évidence dans la représentation de la culture par un grand modèle de langage. L’IA saura-t-elle nous aider à identifier ce qui est nouveau ?

Le politiste Henry Farrell [...] estime que le risque de l’IA est qu’elle produise un monde de similitude, un monde unique et moyen : « Le problème avec les grands modèles est qu’ils ont tendance à sélectionner les caractéristiques qui sont communes et à s’opposer à celles qui sont contraires, originales, épurées, étranges. Avec leur généralisation, le risque est qu’ils fassent disparaître certains aspects de notre culture plus rapidement que d’autres ». Pour Farrell, ce constat contredit les grands discours sur la capacité d’innovation distribuée de l’IA. Au contraire, l’IA nous conduit à un aplatissement, effaçant les particularités qui nous distinguent.

Électricité, eau, minéraux, CO2 : on a tenté de mesurer l’empreinte écologique de ChatGPT | vert.eco
thumbnail

GPT la planète ? L’impact environnemental de l’incontournable outil d’intelligence artificielle est souvent insoupçonné et sous-estimé, et risque bien d’empirer dans les années à venir. Décryptage.

Malgré tous les efforts des expert·es du secteur, cette empreinte demeure très compliquée à estimer. La faute à des modèles qui évoluent très vite et rendent caduques les estimations, ainsi qu’à des effets volontairement sous-documentés par les entreprises du secteur.

En matière d’IA, il y a le modèle mais aussi ce qu’il permet de produire. Par exemple, il peut aider des entreprises fossiles à accélérer la production de secteurs polluants (le textile, la tech, etc.). Or, cet élément est quasiment impossible à prendre en compte lorsque l’on calcule l’impact de ces outils.