L'IA - On en est où ?

Aujourd’hui, on parle d’intelligence artificielle.

Quelle position adopter dans notre quotidien de prof face à l’arrivée des IA génératives ? Faut-il se lancer à fond dans leur utilisation ou freiner des quatre fers ? Ou quelque chose entre les deux ?

Ces discussions sont houleuses en salle des profs, et on se fait parfois “juger” d’utiliser l’IA, ou, au contraire, de ne même pas savoir ce qu’elle est capable de faire et de risquer d’être dépassé par les connaissances des élèves.

Dans cette série d’épisodes sur l’IA, je voudrais donc t’expliquer quelle est ma vision des choses quant à l’utilisation des IA génératives dans notre quotidien (de prof ou à l’extérieur, dans notre vie perso). Ce n’est que ma vision, au jour où j’enregistre cet épisode, et elle va probablement encore évoluer. Je suis toujours en questionnement pour contrebalancer les inconvénients de son utilisation par ses avantages, qui sont quand même indéniables à certains niveaux.

Comprendre l’IA

La première chose à savoir, je pense, pour pouvoir être la plus objective possible quant à l’utilisation de l’intelligence artificielle, c’est de comprendre un minimum comment elle fonctionne.

Pour pouvoir cerner les avantages réels que l’IA peut avoir, il est important de savoir ce qu’elle est réellement capable de faire, et de lever le voile sur la “magie” de ces nouveaux outils. Une étude récente a d’ailleurs montré que les personnes les plus enclines à utiliser l’IA ne sont pas les fans de technologies, comme on pourrait s’y attendre… mais au contraire les gens qui n’y connaissent rien !

En fait, quand on ne sait pas du tout comment tout ça fonctionne, il peut être très tentant de croire que l’IA est une sorte de boîte magique, capable de répondre parfaitement à tout. Comme si, en lui posant une question, on allait automatiquement obtenir la meilleure réponse possible, une réponse fiable, neutre, objective, et sans erreur. Ce phénomène a même un nom dans certaines études : l’illusion de compétence algorithmique. On accorde facilement plus de crédit à une réponse générée par une machine… simplement parce qu’elle a été produite par une machine.

Mais le problème, c’est que cette confiance aveugle dans l’outil peut nous amener à mal l’utiliser. À lui faire faire des choses pour lesquelles elle n’est pas prévue, ou à lui faire trop confiance, sans vérification. Et c’est là que ça devient risqué, surtout dans un contexte éducatif.

À l’inverse, les personnes qui comprennent un peu mieux le fonctionnement d’une IA générative, comme ChatGPT, sont plus prudentes, mais aussi plus stratégiques dans leurs usages. Elles savent par exemple que l’IA ne “comprend” pas ce qu’elle écrit. Qu’elle ne réfléchit pas comme un humain. Qu’elle génère des réponses probables, mais pas toujours justes. Et ça change tout dans la manière de l’utiliser.

Alors, est-ce que ça veut dire qu’il faut être informaticien pour s’en servir ? Bien sûr que non. Mais avoir quelques repères simples sur ce que fait concrètement une IA générative, sur ce qu’elle ne fait pas, et sur les limites de son fonctionnement, c’est déjà un premier pas essentiel pour faire des choix éclairés.

Et c’est exactement ce qu’on va faire ensemble dans la suite de cet épisode : on va décortiquer, sans jargon inutile, comment fonctionne une IA comme ChatGPT, et comment la compréhension de son fonctionnement peut nous permettre de faire un choix éclairé sur le fait de l’utiliser ou non. Et on va en profiter pour voir où en est l’IA générative pour le moment - au cas où tu aurais loupé les dernières nouveautés.

Fonctionnement général de ChatGPT

Commençons par essayer de comprendre en gros comment fonctionne une IA comme ChatGPT. ChatGPT, c’est ce qu’on appelle une IA générative. Ça veut dire qu’elle est capable de produire du texte, souvent très fluide, bien structuré, et même assez convaincant. Mais attention : ce n’est pas une IA qui “sait” des choses. Ce n’est pas une encyclopédie, ni un cerveau artificiel qui comprend le sens profond de ce qu’il écrit.

En réalité, ChatGPT fonctionne par prédiction de mots. Il a été entraîné sur des milliards de phrases prises sur Internet, dans des livres, des articles, des forums… Et à force de voir ces phrases, il a “appris” à prédire quel mot vient après l’autre. C’est comme un jeu de devinettes géant : "Si quelqu’un dit ça, quel mot a-t-il utilisé ensuite dans les millions d’exemples que j’ai vus ?"

Donc quand tu lui poses une question, il ne va pas chercher la réponse dans une base de données comme Google. Il va plutôt générer une réponse mot après mot, en choisissant à chaque fois le mot le plus probable, selon les milliards de phrases qu’il a déjà lues. Et c’est pour ça qu’il peut écrire de super beaux textes… mais aussi dire des choses complètement fausses avec beaucoup d’assurance.

Il ne sait pas qu’il ment. Il ne “sait” rien, en fait. Il simule une réponse qui ressemble à ce qu’un humain pourrait dire, mais il ne comprend pas ce qu’il raconte. Et ça, c’est un point essentiel à avoir en tête quand on l’utilise. Par exemple, si tu lui demandes de générer un exercice de chimie ou de t’expliquer une notion de physique, il peut te sortir une réponse très convaincante… mais scientifiquement fausse. Ce n’est pas qu’il est malveillant : c’est juste qu’il n’a pas de filtre de vérification intégré. Il ne fait que reproduire ce qu’il a déjà vu, y compris des erreurs ou des approximations.

C’est un peu comme un élève qui a une plume incroyable, et qui écrit des trucs faux, mais avec un style magnifique. Si tu ne relis pas attentivement, tu peux facilement te faire avoir.

Ce fonctionnement met en avant une première limite claire ; n’utilise jamais l’IA générative sur un sujet que tu ne maitrises pas. En tant que prof, on maitrise la matière que l’on enseigne. On a donc la capacité de vérifier si les textes générés contiennent bien des informations correctes et rigoureuses. Mais si on n’est pas sûre de nous sur un point, il faut absolument se tourner vers une source fiable ; et ça, ça ne sera jamais une IA.

Un développement fulgurant

Si tu avais déjà testé une IA générative il y a deux ou trois ans et que tu étais resté un peu sur ta faim… c’est normal. À l’époque, c’était déjà impressionnant, mais pas toujours fiable, souvent répétitif, parfois à côté de la plaque. Et surtout, ces outils avaient du mal à suivre une consigne complexe ou à garder une ligne cohérente sur plusieurs paragraphes.

Mais depuis, les modèles ont énormément progressé.

Prenons un exemple simple. ChatGPT, que tu connais peut-être, est basé sur un modèle appelé GPT, développé par OpenAI.

Il y a eu plusieurs versions : GPT-2, GPT-3, GPT-3.5… Et maintenant, on en est à GPT-4, ou même GPT-4o — la version optimisée qui est sortie en 2024. Si tu as un compte payant, tu peux déjà accéder à la version 4.5.

Et ces dernières versions, elles changent la donne.

Déjà, GPT-4o est beaucoup plus rapide et plus fluide que ses prédécesseurs. Il fait moins d’erreurs, il comprend mieux les consignes complexes, il est plus doué pour raisonner et organiser les idées, et surtout… il est bien meilleur pour comprendre le contexte.

Et ce n’est pas propre à OpenAI. Chez Google, on retrouve leur modèle Gemini, en France on parle de Mistral, chez Anthropic, il s’agit de Claude… tous ces modèles font aussi d’énormes progrès. Certains sont très bons pour résumer, d'autres pour générer du contenu long ou pour comprendre un fichier complexe comme un tableau ou un document PDF.

Les outils d’IA se développent extrêmement vite, et il faut veiller à rester le plus à jour possible. Par exemple, depuis plusieurs mois, ChatGPT peut maintenant faire des recherches en ligne. Et là, je parle de vraies recherches à jour, pas juste de recycler ce qu’il connaît déjà. Tu peux lui poser une question sur un sujet d’actualité, sur les résultats d’une étude récente ou sur une ressource pédagogique en ligne, et il va aller chercher pour toi. Pas pour te balancer une liste de liens comme Google, mais pour te faire une synthèse directe, avec les infos clés. En gros, il lit pour toi et il te résume l’essentiel, en citant ses sources. C’est quand même bien pratique quand on veut aller droit au but, sans passer une heure à fouiller Internet. Ces derniers mois, on voit même apparaître comme premier retour, lorsqu’on fait une recherche sur Google, un résumé réalisé par une IA.

Autre chose assez pratique : tu peux lui donner des documents à lire. Un long texte, un fichier PDF, un tableau un peu dense… et il est capable de le parcourir, de le comprendre et de t’en ressortir un résumé clair. Tu peux même lui demander d’en extraire les grandes idées, ou de t’aider à en faire une fiche pour tes élèves. Là encore, on passe d’un simple assistant de rédaction à un vrai outil d’analyse. Et je t’assure que ça peut vraiment faire gagner un temps fou quand tu dois décortiquer des contenus complexes ou préparer un cours sur base de ressources imposées.

Mais il est crucial de ne jamais laisser le dernier mot à l’IA ; il faut TOUJOURS relire et vérifier tout ce qu’il produit, sous peine de donner des mauvaises informations à nos élèves.

Choisir la bonne IA pour chaque tâche

Les IA sont en train de devenir plus performantes, mais également plus spécialisées. Les différents modèles disponibles sur le marché vont se spécialiser dans un type de tâche spécifique, et il va être de plus en plus crucial de choisir le bon modèle pour la bonne tâche.

En fait, la principale différence entre ces modèles, c’est leur niveau de performance. GPT-3.5, c’est la version gratuite de base. Elle est déjà très correcte, surtout pour des choses simples : générer un petit texte, corriger une phrase, poser une question factuelle. Ça peut suffire si tu veux juste un coup de main rapide sans entrer dans des tâches trop complexes.

Mais dès que tu veux aller un peu plus loin, GPT-4 fait vraiment une grosse différence. Il est plus précis, plus cohérent, il comprend mieux le contexte quand tu poses des questions plus longues ou quand tu lui demandes d’imiter ton style. Il est aussi meilleur pour raisonner, pour reformuler une consigne, ou pour t’aider à préparer des supports pédagogiques qui tiennent la route.

Et puis il y a GPT-4o, la dernière version. Le “o”, c’est pour “omni”, parce qu’il peut traiter non seulement du texte, mais aussi des images, du son, ou encore des fichiers. En clair, c’est celui qui a les capacités les plus larges. C’est lui que tu vas vouloir utiliser si tu veux, par exemple, lui faire lire une copie d’élève, analyser un tableau, t’expliquer une figure, ou même générer un schéma ou une image. Il est aussi plus rapide, plus fluide dans les échanges, et beaucoup plus agréable à utiliser au quotidien.

Maintenant, tu vas peut-être me dire : “Ok, donc il suffit de toujours utiliser GPT-4o alors ?” Eh bien… pas forcément. Parce que tout dépend de la tâche que tu veux accomplir. Si tu veux juste écrire un mail type ou vérifier une info simple, pas besoin de sortir l’artillerie lourde. Par contre, si tu veux qu’il t’aide à différencier des niveaux d’exercices selon la taxonomie de Bloom, ou qu’il reformule une consigne complexe en langage élève, là, GPT-4 ou GPT-4o vont être beaucoup plus efficaces, et tu verras tout de suite la différence.

Et puis, il y a aussi les “mini modèles”, qu’on commence à voir arriver. Ces modèles plus petits sont moins puissants, mais beaucoup plus rapides et plus légers. L’idée, c’est qu’ils sont capables d’effectuer des tâches très ciblées, avec peu de ressources. Par exemple, pour corriger rapidement un petit texte ou pour extraire une information précise dans un document, ces mini modèles peuvent suffire largement. Et comme ils consomment moins, ils peuvent aussi être une alternative plus responsable quand on n’a pas besoin de toutes les fonctionnalités d’un gros modèle.

Et enfin, le modèle qu’on peut enfin utiliser pour faire de la réflexion avancée au niveau mathématique ou scientifique, c’est o4 (à ne pas confondre avec 4o - ils n’ont pas été subtils pour le nom sur ce coup-là). Le modèle o4 de GPT est spécialisé en résolution de problèmes, mais il n’est vraiment pas doué en rédaction. Donc lorsque je veux de l’aide pour rédiger des résolutions d’exercices ou créer des exercices, c’est celui-là que je vais utiliser. Et il fait vraiment moins d’erreurs que tous les autres !

En résumé : plus la tâche est complexe, nuancée, ou nécessite de croiser plusieurs types de contenus, plus tu auras intérêt à aller vers un modèle avancé. Et pour les petites tâches rapides, pas besoin de surconsommer : les versions plus simples font très bien le boulot.

Images, audio, vidéo…

Alors, si on s’éloigne un petit peu de ChatGPT et qu’on élargit le regard à d’autres formes d’intelligence artificielle générative, il faut bien dire que les progrès récents sont assez bluffants.

Commençons par les images. Ces derniers mois, des outils comme DALL·E, Midjourney, ou encore Adobe Firefly ont fait un bond en avant incroyable. Il suffit de taper une description, même un peu floue, et l’IA est capable de générer des images ultra détaillées, avec un niveau de qualité qu’on n’aurait jamais imaginé il y a deux ans. Et ce n’est pas juste de l’art abstrait : on peut obtenir des illustrations scientifiques, des schémas pédagogiques, des infographies… Ce qui est nouveau aussi, c’est qu’on peut maintenant modifier une image existante, ajouter ou supprimer un élément, changer la composition, comme si on retouchait une photo, mais sans toucher à Photoshop. Et tout ça, simplement en décrivant avec du texte la modification que l’on souhaite.

Côté audio, là aussi, les choses bougent très vite. Il existe maintenant des IA capables de générer des voix ultra réalistes, à tel point qu’on a parfois du mal à distinguer si c’est une vraie personne ou non. On peut faire parler un texte avec une voix naturelle, dans plusieurs langues, avec une intonation adaptée. Certaines plateformes permettent même de choisir une émotion : calme, enthousiaste, sérieux… C’est impressionnant, et ça commence à poser des questions éthiques importantes, notamment sur les deepfakes vocaux. Mais pour un usage pédagogique, ça ouvre aussi des pistes très concrètes : créer des podcasts en plusieurs langues, enregistrer des consignes audio, ou encore proposer des histoires racontées pour les élèves.

Et enfin, il y a la vidéo. Là, on est encore dans une phase émergente, mais les progrès sont très rapides. Et personnellement, je suis complètement bluffée par certaines vidéos générées par IA que j’ai pu voir.

Des outils comme Sora, Runway ou Synthesia, permettent déjà de générer des vidéos courtes à partir d’une simple description textuelle. On peut par exemple demander à voir un ballon qui rebondit dans une ruelle ensoleillée, et hop, l’IA fabrique un petit film. Pour l’instant, on reste sur des vidéos très courtes, parfois un peu bancales sur les détails, mais on sent bien que ça ne va pas en rester là. Il y a aussi des IA qui permettent de modifier une vidéo existante, changer le style, corriger une image floue, ou même faire bouger les lèvres d’un personnage en synchronisation avec une nouvelle bande-son. Ça paraît presque irréel, mais c’est en train d’arriver. Et comme un épisode de podcast sort plusieurs semaines après que je l’ai rédigé, je suis sûre que là, maintenant, l’IA vidéo en est déjà un cran plus loin.

Donc oui, ces IA génératives visuelles, sonores et vidéo sont en train de changer complètement le rapport qu’on a aux contenus numériques. C’est fascinant, un peu vertigineux parfois, mais ça rend encore plus important de comprendre ce qu’on utilise, pourquoi on l’utilise, et avec quel objectif pédagogique.

C’est tout pour aujourd’hui.

Dans le prochaine épisode, on va parler d’une autre thématique liée à l’utilisation de l’IA : les impacts écologiques de son utilisation.

PARTAGER

Rejoins-nous !

Abonne-toi à notre newsletter et reçois directement conseils et ressources dans ta boite mail !

Un mail te confirmation te sera envoyé : n'oublie pas de valider ton adresse mail et de ne pas laisser les mails arriver dans tes spams!