
Ce qu'il fallait retenir de la formation "Découvrir, comprendre et expérimenter les IA génératives".
Nous avons organisé cette formation, en partenariat avec la compagnie du Code et Class'Code à destination des enseignant·es et agents périscolaires, suite à des interrogations de parents soulevées lors de la conférence "IA : Magie ? Supercherie ? Dinguerie ?".
Voici quelques informations clés de cette formation.
Qu’est-ce qu’un prompt ?
C'est une instruction transmise par un humain à une IA générative pour obtenir une réponse.
Qu’est-ce que le LLM (large langage modèle) ou langage naturel ?
LLM pour Large Language Model est un grand modèle de langage, c'est-à-dire qu'il possède un grand nombre de paramètres (plus d'un milliard). Les paramètres sont des éléments fondamentaux qui permettent aux modèles de fonctionner et de s'adapter à une grande variété de tâches.
Quelles IA proposent des réponses sourcées ?
Dans le panel testé en formation (ChatGPT, VittaScience et Perplexity), c'est Perplexity qui affiche les sources à la fin de la réponse.
Est-il possible de refuser certaines sources dans ses recherches ?
C'est possible dans la version payante de Perplexity.
Quelle est la différence entre Chat GPT, Perplexity et VittaScience ?
- ChatGPT est modèle de langage conversationnel créé par OpenAI pour générer du texte, aider à créer du code...
- Perplexity combine un moteur de recherche conversationnel : il combine un modèle de langage et des recherches en temps réel sur Internet dans l'objectif de fournir des réponses sourcées et vérifiables.
- VittaScience est une plateforme pédagogique pour découvrir l'IA. Elle s'appuie sur des modèles existants (Mistral, DeepSeek, GPT...)
Qu’est-ce qu’un token ?
Le token est une unité de texte utilisée pour le traitement du langage. Il peut être un mot, une ponctuation. Les tokens (jetons en français) sont utilisés par les grands modèles de langage (comme Chat GPT par exemple) pour découper le texte en petites unités.
L'illustration ci-dessous est une capture de ChatGPT qui explique combien il y a de tokens dans la phrase "Les chats adorent jouer" . Dans cette phrase il y a 6 tokens (Les, chats, ador, ent, jouer, .)

Ces tokens vont permettent de comprendre et générer de nombreux mots à partir d'un vocabulaire de base limité. Le nombre de tokens qu'un grand modèle de langage peut traiter en entrée et en sortie est limité (en particulier dans les versions gratuites). À partir des tokens qui précédent un texte les grands modèles de langage vont prédire le token qui est le plus probable d'être le suivant.
Qu'est-ce qu'une réponse probable (et donc pas forcément fiable) ?
Lorsqu'on pose une question à une IA générative, elle produit la réponse la plus probable, ce qui ne veut pas dire forcément une réponse véridique. L'IA génère du texte en se basant sur des probabilités.
Qu’est-ce qu’une hallucination ?
Nous l'avons dit plus haut, l'IA génère des réponses probables. Donc, elle peut inventer des faits et les présenter comme avérés, ce qu'on appelle une hallucination. Une étude d'OpenAI révèle que même ses meilleurs modèles donnent de mauvaises réponses dans une très large proportion.
- Le gouvernement, dans sa page "IA génératives : comment bien les utiliser ?" du site info.gouv conseille de vérifier les infos,
- de ne pas croire aveuglément celles qui sont sensibles, en particulier sur les thèmes de la santé, de la sécurité ou sur les faits d’actualité…

Nous avons fait l'expérience involontaire au départ de demander à l'IA Vittascience (utilisant le modèle SSD-1B) de transformer la photo de notre classe de formation composée de 13 stagiaires (6 femmes dont 2 racisées et 7 hommes blancs) et d'une formatrice ayant un handicap à la main. L'image générée a fait disparaître 3 femmes notamment la femme racisée qui sont devenues 3 hommes blancs. Le handicap de la formatrice a également disparu.