3 liens privés
Apple compte déployer une mise à jour sur iOS pour corriger un problème lié à son bouquet de services IA : les résumés des actualités évoquent parfois des informations fantaisistes. Priée de désactiver la fonction, la société n’en a rien fait jusqu’à présent. Elle insiste sur le caractère bêta du service.
En amont du sommet sur l'IA, les participants au projet Dial-IA, visant à faciliter le dialogue social technologique au sein des entreprises et des administrations, ont présenté les résultats de leurs travaux.
En pratique, Dial-IA propose différents arguments et documents susceptibles de servir au sein des organisations : un registre des systèmes d’IA, pour faciliter la collecte d’information (et le suivi) des projets, des kits de survie pour mener les dialogues sociaux en entreprise ou dans les administrations, mais aussi des fiches visant à faciliter les discussions à des moments spécifiques du déploiement des systèmes
L’arrivée imminente des « jumeaux numériques », ces doubles virtuels copiant nos comportements et interactions, soulève des enjeux critiques. Si ces entités promettent confort et fluidité dans nos vies quotidiennes, elles pourraient également marquer une rupture anthropologique en abolissant choix, incertitude et libre arbitre. C’est en tout cas l’inquiétude de Chem Assayag, auteur du blog Néotopia et lecteur d’Usbek & Rica.
La promesse est bien celle-ci : en anticipant nos désirs et en interagissant avec d’autres systèmes ou individus, le jumeau numérique transforme notre quotidien en simplifiant les processus fastidieux. Les tâches répétitives et les décisions triviales sont prises en charge, laissant, théoriquement, plus de place aux activités enrichissantes.
Mais la promesse en apparence si séduisante masque en réalité un pacte faustien, car ce qui paraît anodin et si agréable revient en fait à nous déposséder de toute volonté. Nous n’agissons plus, nous sommes agis. Nous n’avons plus rien à exprimer, à choisir, tous nos actes sont prédéfinis, prémâchés. Nos désirs n’en sont plus puisqu’ils sont systématiquement satisfaits. Nous sommes le produit déterministe de notre passé et de son interprétation par des systèmes computationnels, et nos nouvelles actions alimentent ce Moloch technologique. En abolissant le futur immédiat, de proche en proche, nous abolissons notre futur.
La Société Informatique de France (SIF) partage sur binaire un cycle d’interviews sur l’impact de l’Intelligence Artificielle (IA) sur les métiers, en commençant ici par l’impact de l’IA sur les industries culturelles et créatives, grâce à une interview de Quentin Auger, Directeur de l’Innovation chez Dada !
En octobre dernier, l'Open Source Initiative a publié la version 1.0 de sa définition de l'IA ouverte, mais des acteurs du milieu du logiciel libre n'en sont pas satisfaits. Ils s'organisent autour de Sam Johnston pour peser sur la définition qui sera utilisée en Europe lors du AI Action Summit organisé par l'Élysée les 10 et 11 février.
M.I.A.M. (machine intelligente apprenant le morpion) | Maison des mathématiques et de l'Informatique
M.I.A.M. (machine intelligente apprenant le morpion) est une animation permettant d'expliquer l'apprentissage par renforcement sans ordinateur. Cette machine, construite avec 304 boîtes d’allumettes, ejouera au morpion contre le public et s’améliorera au cours de la journée.
Meta s'attend à ce que les « personnages » générés par IA soient, au cours des prochaines années, de plus en plus nombreux sur ses plateformes de médias sociaux, et compte sur cette technologie pour susciter l'engagement de ses 3 milliards d'utilisateurs.
Meta avait aussi précisé, le mois dernier, que plus d'un million d'entreprises créaient désormais plus de 15 millions de publicités par mois sur les plateformes Meta à l'aide de l'IA générative, afin de les rendre « beaucoup plus personnalisées à l'échelle ».
Fidle est une formation libre, gratuite, proposée en distanciel par le CNRS, l’Université Grenoble Alpes et le MIAI.
Fidle, c’est 40h de formation en 20 séquences hebdomadaires de 2h à 3h sur YouTube.
« Il existe une application pour à peu près tout », clamait la publicité Apple au temps du premier iPhone. Quinze ans plus tard, la formule marche toujours : il suffit juste de remplacer « application » par « intelligence artificielle », tant il a été question d’IA à toutes les sauces en 2024. La preuve avec ce petit best of (ou plutôt worst of) concocté par la rédaction d’Usbek & Rica.
De nouvelles études sur l'empreinte énergétique de l'intelligence artificielle ont été publiées récemment. L'agence Deloitte estime qu'avec la plus forte adoption envisagée, la consommation des data centers dans le monde pourrait être multipliée par 9 et atteindre 3 550 TWh/ an. En parallèle, des chercheurs d'Harvard soulignent que les centres de données américains sont souvent construits dans des endroits où les sources d'électricité sont plus polluantes que la moyenne nationale.
Une intelligence simplement humaine n’a jamais existé : les esprits individuels et collectifs n’ont cessé de se transformer à travers l’évolution des supports artificiels qui permettent de les extérioriser. Pourquoi alors, aujourd’hui, les machines deviennent-elles « spirituelles » ? Pourquoi, au lieu de libérer les humains du travail, semblent-elles transformer leur utilisateurs en ressource ? Au cours de ce voyage dans l’écologie mentale du numérique au temps de l’IA, Anne Alombert montre la naissance d’une technologie intellectuelle d’asservissement des esprits, générant la prolétarisation linguistique et symbolique, homogénéisant le langage et éliminant les singularités. L’espoir se loge dans la collaboration des esprits qu’une telle technologie présuppose.
L’attribution des capacités humaines aux « machines » serait ainsi au service d’un processus d’identification, qui permet à l’homme de s’attribuer en retour la puissance de la machine, de se masquer sa propre vulnérabilité et d’exercer sa domination ou sa supériorité.
Le rapport anthropomorphique, hypnotique et magique à la technique permet aussi de masquer les infrastructures matérielles et les ressources naturelles nécessaires au fonctionnement de ce qui s’apparente plus à un système hyperindustriel réticulaire qu’à une « machine » à proprement parler : plutôt que des « machines intelligentes » ou des « machines spirituelles », les automates computationnels que nous mobilisons quotidiennement fonctionnent en réseau, à travers la réticulation planétaire de terminaux, de câbles, de centres de données et de satellites, dont le fonctionnement a de lourdes conséquences du point de vue écologique.
Quand nous parlons avec ChatGPT, nous avons l’impression de discuter avec un semblable. Pourtant, son fonctionnement est assez éloigné de notre propre cognition.
De par sa fonction d’agent conversationnel, nous projetons de facto sur ChatGPT des fonctions cognitives similaires à celles qu’un interlocuteur humain pourrait développer. Se tourner vers les sciences cognitives va permettre de mieux comprendre leur nature, les interactions qui vont en résulter et les risques associés. Cette caractéristique primordiale des chatbots provoque en effet une mécompréhension de leur fonctionnement par l’utilisateur et donc un excès de confiance dans leurs résultats.
alors que ChatGPT est un système complexe comportant des milliards de paramètres, entraîné à partir de milliers de milliards de données pour apprendre à prédire la suite de mots la plus probable, il cache cette complexité derrière sa fonction d’agent conversationnel qui nous parle. Par simple projection, comme on le fait quand nous parlons avec nos semblables, nous développons cette illusion d’interagir avec un agent intelligent, qui pense, ressent et comprend comme nous.
Bibliographie sélective sur le thème : intelligence artificielle et éducation (décembre 2024).
À l’occasion de la publication de son livre « L’IA aux Impôts », Solidaires Finances Publiques a donné une conférence de presse pour détailler ses constats et inquiétudes relatifs au déploiement de l’intelligence artificielle au fisc.
Pour détailler les implications de ces bouleversements, le syndicat a donc publié L’IA aux impôts, Réflexions et actions syndicales aux éditions Syllepses, riche analyse des effets concrets du déploiement de ces technologies au sein d’une administration française.
Sur les 4 199 répondants à travers le pays, 20 % déclarent utiliser des outils d’IA dans leurs missions. Sur le terrain, cela dit, l’efficacité de ces outils reste « relative » : plus de 85 % de leurs usagers déclarent que ces outils ne leur permettent pas de se « consacrer à d’autres tâches plus intéressantes », et plus de 90 % déclarent que l’utilisation de l’IA ne donne pas « plus de sens à [leur] travail ».
Est-ce grave ?
Oui : Cela alimente la désinformation et permet aux "Iron Men" de produire à la chaîne sans vérification. Fake news, perte de crédibilité et surproduction de contenu erroné.
Non : Cela nous oblige à rester vigilant et à aiguiser notre esprit critique. Copier-coller sans réfléchir n’a jamais été une bonne idée, IA ou pas.
En cette fin d'année 2024 et deux ans après la sortie de ChatGPT, le débat sur le respect du droit d'auteur au sein des IA génératives émerge de nouveau avec la publication de deux rapports. L'un, du lobby France Digitale, préconise de faire reposer le respect de l'opt-out sur les ayants droit. L'autre est une étude de la Direction générale du Trésor.
France Digitale propose de modifier la loi pour l'adapter aux pratiques de l'industrie de l'IA générative. Ce lobby français veut que les entreprises du numérique ne rencontrent pas d'obstacle dans leur fouille massive du web. Mais pour faire passer la pilule aux sociétés d'ayants droits, le lobby propose la « création d’une nouvelle compensation forfaitaire des ayants droits par les fournisseurs de modèles d’IA générative, sur le modèle de la compensation pour copie privée ».
Un groupe de chercheurs a mis au point un système d'IA capable de protéger les utilisateurs contre la reconnaissance faciale indésirable par des acteurs malveillants. Baptisé Chameleon, le modèle d'IA utilise une technologie spéciale de masquage pour générer un masque qui dissimule les visages dans les images sans affecter la qualité visuelle de l'image protégée. En outre, les chercheurs affirment que le modèle est optimisé en matière de ressources, ce qui le rend utilisable même avec une puissance de traitement limitée. Les chercheurs ont également fait part de leur intention de publier le code du modèle d'IA Chameleon prochainement.
L’IA générative ne va ni nous augmenter ni nous remplacer, mais vise d’abord à mieux nous exploiter, expliquent Aiha Nguyen et Alexandra Mateescu de Data & Society. En s’intégrant aux applications de travail, elle promet de réduire les coûts même si elle n’est pas pertinente, elle vient contraindre l’activité de travail, et renforce l’opacité et l’asymétrie de pouvoir.
Pour l’instant, pour contester « la marchandisation non rémunérée de leur travail », les travailleurs ont peu de recours, alors que cette nouvelle couche d’exploitation pourrait avoir des conséquences à long terme puisqu’elle vise également à substituer leur travail par des outils, à l’image de la prolifération de mannequins virtuels dans le monde de la mode.
Le recours à l’IA générative renforce également la surveillance et la datafication du lieu de travail, aggravant des décisions automatisées qui sont déjà très peu transparentes aux travailleurs. Automatisation de l’attribution des tâches, de l’évaluation des employés, de la prise de mesures disciplinaires… Non seulement le travail est de plus en plus exploité pour produire des automatisations, mais ces automatisations viennent contraindre l’activité de travail.
L’IA générative est souvent introduite pour accélérer la production et réduire les coûts. Et elle le fait en extrayant la valeur des travailleurs en collectant les données de leur travail et en les transférant à des machines et à des travailleurs moins coûteux qui vont surveiller les machines. A mesure que les travailleurs sont réduits à leurs données, nous devons réfléchir à comment étendre les droits et les protections aux données produites par le travail.
L’utilisation d’intelligences artificielles, dans certains cas, génère des risques de discriminations accrues ou encore de perte de confidentialité ; à tel point que l’Union européenne tente de réguler les usages de l’IA à travers différents niveaux de risques. Ceci pose d’autant plus question que la plupart des systèmes d’IA aujourd’hui ne sont pas en mesure de fournir des explications étayant leurs conclusions. Même les experts ne savent pas toujours comment les systèmes d’IA atteignent leurs décisions. Un nouveau domaine de recherche s’empare du problème : l’« IA explicable » est en plein essor.
Précaires, isolés et cachés par les plateformes, les travailleur·euses de données sont aussi invisibles qu'essentiels. Sans ces personnes, pas de ChatGPT, Midjourney ou Gemini. Elles demandent d'urgence un cadre légal à leur travail.
Isolés, précarisés et mis en concurrence pour une simple tâche, les travailleur·euses du clic sont invisibilisés par de grandes entreprises de la Tech. Faute de contrat de travail, ils et elles n’ont aucune sécurité dans leur emploi.