3 liens privés
Deux chercheurs avancent que l'explosion de l'IA générative et notre familiarité croissante avec leurs chatbots ouvrent la voie à un nouveau marché de collecte et d'analyse de nos « intentions ». Ils redoutent que cela puisse influencer et biaiser l'accès à l'information, la concurrence libre et non faussée, et jusqu'aux élections.
OpenAI may be close to releasing an AI tool that can take control of your PC and perform actions on your behalf, if leaks are to be believed.
L’arrivée imminente des « jumeaux numériques », ces doubles virtuels copiant nos comportements et interactions, soulève des enjeux critiques. Si ces entités promettent confort et fluidité dans nos vies quotidiennes, elles pourraient également marquer une rupture anthropologique en abolissant choix, incertitude et libre arbitre. C’est en tout cas l’inquiétude de Chem Assayag, auteur du blog Néotopia et lecteur d’Usbek & Rica.
La promesse est bien celle-ci : en anticipant nos désirs et en interagissant avec d’autres systèmes ou individus, le jumeau numérique transforme notre quotidien en simplifiant les processus fastidieux. Les tâches répétitives et les décisions triviales sont prises en charge, laissant, théoriquement, plus de place aux activités enrichissantes.
Mais la promesse en apparence si séduisante masque en réalité un pacte faustien, car ce qui paraît anodin et si agréable revient en fait à nous déposséder de toute volonté. Nous n’agissons plus, nous sommes agis. Nous n’avons plus rien à exprimer, à choisir, tous nos actes sont prédéfinis, prémâchés. Nos désirs n’en sont plus puisqu’ils sont systématiquement satisfaits. Nous sommes le produit déterministe de notre passé et de son interprétation par des systèmes computationnels, et nos nouvelles actions alimentent ce Moloch technologique. En abolissant le futur immédiat, de proche en proche, nous abolissons notre futur.
Fidle est une formation libre, gratuite, proposée en distanciel par le CNRS, l’Université Grenoble Alpes et le MIAI.
Fidle, c’est 40h de formation en 20 séquences hebdomadaires de 2h à 3h sur YouTube.
Une intelligence simplement humaine n’a jamais existé : les esprits individuels et collectifs n’ont cessé de se transformer à travers l’évolution des supports artificiels qui permettent de les extérioriser. Pourquoi alors, aujourd’hui, les machines deviennent-elles « spirituelles » ? Pourquoi, au lieu de libérer les humains du travail, semblent-elles transformer leur utilisateurs en ressource ? Au cours de ce voyage dans l’écologie mentale du numérique au temps de l’IA, Anne Alombert montre la naissance d’une technologie intellectuelle d’asservissement des esprits, générant la prolétarisation linguistique et symbolique, homogénéisant le langage et éliminant les singularités. L’espoir se loge dans la collaboration des esprits qu’une telle technologie présuppose.
L’attribution des capacités humaines aux « machines » serait ainsi au service d’un processus d’identification, qui permet à l’homme de s’attribuer en retour la puissance de la machine, de se masquer sa propre vulnérabilité et d’exercer sa domination ou sa supériorité.
Le rapport anthropomorphique, hypnotique et magique à la technique permet aussi de masquer les infrastructures matérielles et les ressources naturelles nécessaires au fonctionnement de ce qui s’apparente plus à un système hyperindustriel réticulaire qu’à une « machine » à proprement parler : plutôt que des « machines intelligentes » ou des « machines spirituelles », les automates computationnels que nous mobilisons quotidiennement fonctionnent en réseau, à travers la réticulation planétaire de terminaux, de câbles, de centres de données et de satellites, dont le fonctionnement a de lourdes conséquences du point de vue écologique.
Quand nous parlons avec ChatGPT, nous avons l’impression de discuter avec un semblable. Pourtant, son fonctionnement est assez éloigné de notre propre cognition.
De par sa fonction d’agent conversationnel, nous projetons de facto sur ChatGPT des fonctions cognitives similaires à celles qu’un interlocuteur humain pourrait développer. Se tourner vers les sciences cognitives va permettre de mieux comprendre leur nature, les interactions qui vont en résulter et les risques associés. Cette caractéristique primordiale des chatbots provoque en effet une mécompréhension de leur fonctionnement par l’utilisateur et donc un excès de confiance dans leurs résultats.
alors que ChatGPT est un système complexe comportant des milliards de paramètres, entraîné à partir de milliers de milliards de données pour apprendre à prédire la suite de mots la plus probable, il cache cette complexité derrière sa fonction d’agent conversationnel qui nous parle. Par simple projection, comme on le fait quand nous parlons avec nos semblables, nous développons cette illusion d’interagir avec un agent intelligent, qui pense, ressent et comprend comme nous.
Est-ce grave ?
Oui : Cela alimente la désinformation et permet aux "Iron Men" de produire à la chaîne sans vérification. Fake news, perte de crédibilité et surproduction de contenu erroné.
Non : Cela nous oblige à rester vigilant et à aiguiser notre esprit critique. Copier-coller sans réfléchir n’a jamais été une bonne idée, IA ou pas.
L’utilisation d’intelligences artificielles, dans certains cas, génère des risques de discriminations accrues ou encore de perte de confidentialité ; à tel point que l’Union européenne tente de réguler les usages de l’IA à travers différents niveaux de risques. Ceci pose d’autant plus question que la plupart des systèmes d’IA aujourd’hui ne sont pas en mesure de fournir des explications étayant leurs conclusions. Même les experts ne savent pas toujours comment les systèmes d’IA atteignent leurs décisions. Un nouveau domaine de recherche s’empare du problème : l’« IA explicable » est en plein essor.
Comment fonctionne une intelligence artificielle ou IA ? Quelles sont ses différentes applications, et quel est ou sera leur impact sur notre société ? Après cette vidéo, vous allez tout comprendre et aurez l'algorithme dans la peau !
Dans un papier publié dans la revue Nature, des chercheurs interrogent la rhétorique d’une intelligence artificielle dite « ouverte ».
En conclusion, on se contentera ici de citer les auteurs : « La poursuite de l’IA la plus ouverte ne conduira pas à un écosystème plus diversifié, responsable ou démocratisé, bien qu’elle puisse avoir d’autres avantages. Nous observons également que, comme par le passé, les grandes entreprises technologiques en quête d’avantages dans l’IA utilisent l’IA ouverte pour consolider leur domination sur le marché tout en déployant le discours d’ouverture pour détourner les accusations de monopole de l’IA et de régulation associée. »
This paper examines ‘open’ AI. Claims about ‘open’ AI often lack precision, frequently eliding scrutiny of substantial industry concentration in large-scale AI development and deployment, and often incorrectly applying understandings of ‘open’ imported from free and open-source software to AI systems. At present, powerful actors are seeking to shape policy using claims that ‘open’ AI is either beneficial to innovation and democracy, on the one hand, or detrimental to safety, on the other. When policy is being shaped, definitions matter.
To add clarity to this debate, we examine the basis for claims of openness in AI, and offer a material analysis of what AI is and what ‘openness’ in AI can and cannot provide: examining models, data, labour, frameworks, and computational power. We highlight three main affordances of ‘open’ AI, namely transparency, reusability, and extensibility, and we observe that maximally ‘open’ AI allows some forms of oversight and experimentation on top of existing models. However, we find that openness alone does not perturb the concentration of power in AI. Just as many traditional open-source software projects were co-opted in various ways by large technology companies, we show how rhetoric around ‘open’ AI is frequently wielded in ways that exacerbate rather than reduce concentration of power in the AI sector.
Suite et fin de la transcription de la seconde partie dédiée au fonctionnement des IA.
Suite de la série consacrée à la conférence de Mélanie Mitchell sur l’avenir de l’intelligence artificielle.
Suite et fin de la transcription de la première partie dédiée à l'histoire de l'IA.
Pour introduire à l’IA, j’ai conseillé la lecture d’Intelligence artificielle. Triomphes et déceptions de la chercheuse et spécialiste Melanie Mitchell. Elle a donné récemment une conférence The Future of Artificial Intelligence qui intègre la question des IA génératives. Cette conférence est vraiment bien faite, elle couvre l’histoire de l’IA jusqu’à aujourd’hui, donne juste ce qu’il faut d’explication technique et aborde des problèmes cruciaux. Mais elle est en anglais, ce qui peut être un obstacle pour un public déjà non spécialiste de l’IA et de plus francophone. J’ai projeté d’en faire une adaptation écrite et demandé son accord à Melanie Mitchell. Ce qu’elle a fait immédiatement et je l’en remercie vivement.
Le marché des infrastructures réseau connaît une dynamique et un intérêt sans précédent depuis des décennies, et l'intelligence artificielle promet de le rendre encore plus fascinant.
La transition de l’informatique à usage général à l’informatique accélérée nécessite de nouveaux logiciels et architectures de réseaux distribués pour connecter, déplacer et traiter les données à des vitesses fulgurantes, avec une très faible latence et presque aucune tolérance à la perte de données.
À l'heure où tous les mastodontes du numérique, GAFAM comme instituts de recherche comme nouveaux entrants financés par le capital risque se mettent à publier des modèles en masse (la plateforme Hugging Face a ainsi dépassé le million de modèles déposés le mois dernier), la question du caractère « open-source » de l'IA se pose de plus en plus.
L’Open Source Initiative a attrapé le syndrome FOMO – tout comme le jury du prix Nobel. Elle souhaite également participer à l’engouement pour l’« IA ». Mais pour les systèmes que nous appelons aujourd’hui « IA », l’IA open source n’est pas possible dans la pratique. En effet, nous ne pourrons jamais télécharger toutes les données d’entraînement réelles.
"Elements of AI" sont une série de cours en ligne gratuits créés par MinnaLearn et l'Université d'Helsinki. Aucune connaissance en programmation ou mathématiques avancées n’est requise pour suivre ces cours.
Apprendre ce que signifie l'IA, ce qui peut (et ne peut pas) être fait avec l'IA, et comment commencer à créer des méthodes d'IA. Les cours combinent théorie et exercices pratiques et peuvent être complétés à votre propre rythme.
Voici un mini MOOC pour vous former rapidement à l’IA générative dans votre quotidien. Il s’agira de comprendre comment elle transforme notre vie de tous les jours, nos métiers et nos compétences.
À la fin de ce cours, vous saurez :
- Analyser quand l’IA générative apporte de la valeur dans notre vie, dans l’entreprise et dans les métiers et quels sont les risques
- Utiliser des outils d’IA générative (synthétiser, créer, faire es visuels, des rapports, de la veille, etc) pour vous aider dans votre travail quotidien
- Prendre conscience de cas d’usage en RH, industrie, Management d’entreprises qui ont réussi à intégrer l’IA générative pour transformer leurs pratiques (plus de 30 interviews)
- Découvrir les pratiques d’IA génératives d’entreprises en Inde et aux États Unis grâce aux interviews de nos Learning Expédition à Mumbai, Boston et World of IA à Cannes
Discover how actionable AI empowers systems to understand human inputs and take proactive actions based on context and learned behaviors.
Think of LAMs as intelligent assistants who not only understand your requests but also take initiative to fulfill them. This unique ability to combine language understanding with autonomous action holds immense potential for transforming various aspects of our lives.