3 liens privés
Alors que nous approchons du second anniversaire du lancement de chatGPT et que le marché est toujours dans l’expectative du lancement de GPT-5, tous les regards sont tournés vers OpenAI, la nouvelle coqueluche des médias et des experts en NTIC. La sortie récente d’un modèle génératif capable de raisonner ouvre de nombreuses possibilités que seules…
Le terme « chatbot » désigne maintenant les IA de nouvelle génération, celles qui proposent une interface conversationnelle pour interagir avec un grand modèle de langage par l’intermédiaire de commandes textuelles, les prompts.
En combinant les modèles de langage, les modèles de parole, les modèles de vision, les modèles de raisonnement et les modèles d’action, il serait possible de mettre au point des IA beaucoup plus versatiles, capables de rendre des services à plus forte valeur ajoutée que des réponses générées par un chatbot à commandes textuelles.
L’IA est en train de prendre sa place dans les logiciels que nous utilisons tous les jours. Après plusieurs mois de test, Google, Adobe et Microsoft ont annoncé la fin de la période d’essai gratuite. Pour continuer à profiter de leur intelligence artificielle respective, il va falloir payer.
Une initiative internationale menée par la startup française Pleias propose un corpus de textes du domaine public permettant d'entrainer les IA génératives tout en respectant les lois régissant les droits d'auteur : Common Corpus. Pierre-Carl Langlais, co-fondateur de Pleias, nous parle de son projet.
I’m beginning to suspect that one of the most common misconceptions about LLMs such as ChatGPT involves how “training” works. A common complaint I see about these tools is that people don’t want to even try them out because they don’t want to contribute to their training data. This is by no means an irrational position to take, but it does often correspond to an incorrect mental model about how these tools work.
Short version: ChatGPT and other similar tools do not directly learn from and memorize everything that you say to them.
Les grands modèles de langage réduisent le partage des connaissances publiques sur les plateformes de questions-réponses en ligne. L'impact de ChatGPT sur Stack Overflow en est le parfait exemple. Mais cette tendance représente un danger pour les modèles eux-mêmes : il y a moins de contenu valable pour former les LLM, qui finissent donc par s'auto-empoisonner. Une nouvelle étude lève le voile sur cette situation.
Les expressions se multiplient autour de l'intelligence artificielle. Mais qu’est-ce qu’une injection de prompt ? Et une attaque adverse ?
Quand on parle d’intelligence artificielle, en particulier générative, les nouvelles expressions sont nombreuses. Dans cette édition de notre lexique de l’IA, penchons-nous sur celles qui qualifient les attaques, déjà variées, qui visent à fragiliser les modèles d’apprentissage machine ou à contourner diverses restrictions implémentées par les constructeurs.
Qu’est-ce qu’un neurone artificiel ? Et quelle différence entre une hallucination humaine et celle d’une machine ?
Au gré de nos articles sur l’intelligence artificielle, nous utilisons à loisir tout un vocabulaire qui, s’il est souvent tiré d’activités humaines, qualifie bien des éléments spécifiques au champ informatique. Après avoir décortiqué une partie des expressions génériques qui qualifient certains champs et sous-champs du domaine, intéressons-nous donc au fonctionnement plus précis des systèmes d’IA.
Que signifient AGI (intelligence artificielle générale) ? Frontier AI ? modèle de fondation ? general purpose AI ? Tentatives de définition.
Quand on parle d'Intelligence artificielle on mobilise un terme qui qualifie un ensemble de technologies vaguement reliées, expliquent les chercheurs Arvind Narayanan et Sayash Kapoor dans leur nouveau livre, "AI Snake Oil". S’ils n’y arrivent pas toujours, les deux spécialistes nous aident à comprendre les défaillances de l’IA dans un livre qui mobilise la science pour qu’elle nous aide à éclairer le chemin critique qu’il reste à accomplir.
Une nouvelle étude révèle que les hallucinations de grands modèles de langage (LLM) découlent de leurs structures mathématiques et logiques fondamentales. En augmentant la complexité et la capacité des modèles, il est possible de réduire la fréquence de ces hallucinations, mais il serait impossible de les éliminer complètement.
Une note de veille et de ressources sur les IA génératives, alors que l'excitation post-ChatGPT est encore bien vive.
Class'Code IAI est un MOOC citoyen accessible à toutes et à tous de 7 à 107 ans pour se questionner, expérimenter et comprendre ce qu’est l’Intelligence Artificielle.
À la fin de ce cours, vous saurez :
- décrypter le discours autour de l'IA pour passer des idées reçues à des questions sur lesquelles s'appuyer pour comprendre,
- manipuler des programmes d'IA pour se faire une opinion par soi-même,
- partager une culture minimale sur le sujet, pour se familiariser avec le sujet au-delà des idées reçues,
- discuter le sujet, ses applications, son cadre avec des interlocuteurs variés pour contribuer à la construction des applications de l’IA
Face à des gourous de la tech qui promettent une créativité et une productivité débordantes, au-delà des possibilités humaines, des chercheurs réunis en colloque avant l’été à Paris-8 ont rappelé que ces technologies numériques sont des dispositifs de calculs qui génèrent des contenus grâce à l’indexation de données. Ils n’apprennent pas et n’inventent pas. Petit tour d’horizon de ce que la recherche universitaire comprend de ces intelligences artificielles génératives.
Selon des tests réalisés pour l’autorité australienne de régulation des entreprises, la Securities and Investments Commission (ASIC), l’intelligence artificielle produit de moins bons résultats que les humains dans toutes les tâches de résumé. Au point que ces technologies pourraient créer du travail supplémentaire plutôt qu’en enlever.
Dans ce cours, vous découvrirez ce que recouvre vraiment l'intelligence artificielle : ses enjeux, ses possibilités, son fonctionnement scientifique ainsi que ses sous-disciplines, comme le Machine Learning et le Deep Learning.