Et si on refusait d'utiliser l'IA ?

Quand on fait des recherches sur un sujet, quelque chose que l’on oublie régulièrement de faire, mais qui est tout de même très important, c’est de faire des recherches en se focalisant sur le point de vue inverse de celui qu’on défend. Si on est convaincu d’une hypothèse A, on va se focaliser sur des articles, des études qui confirment cette hypothèse. C’est le biais de confirmation. Pour contrer ce biais, il faut donc faire l’effort d’aller voir si l’hypothèse B, opposée à la nôtre, n’est pas tout aussi intéressante, voire même plus pertinente. C’est avec ce genre de démarche qu’on peut conserver notre esprit critique, et ensuite prendre une décision plus éclairée.

Après avoir parlé en long et en large de l’intérêt d’utiliser l’IA, je voulais donc prendre le temps de mettre en avant le point de vue inverse. C’est plus difficile pour moi de trouver des sources et des arguments, je me suis donc beaucoup aidée d’un article rédigé par une autre prof belge, Emeline, du blog “Clic & Déclics”.

Aujourd’hui, on va donc aborder quelques points qui vont à l’encontre d’une utilisation de l’intelligence artificielle générative dans le cadre de notre boulot de prof.

Le coût écologique

Le premier point qui peut te convaincre de ne jamais utiliser l’IA, c’est son impact écologique. Je t’en ai déjà parlé dans un épisode précédent, mais c’est un point qu’on ne peut pas répéter assez, parce qu’il est crucial, et trop souvent oublié.

Chaque fois qu’on utilise une IA générative – comme ChatGPT, Midjourney ou autre – on déclenche des calculs puissants, dans des data centers qui tournent jour et nuit. Et ça, ça consomme de l’énergie. Beaucoup d’énergie. Et aussi de l’eau, pour refroidir les machines.

Un petit prompt, ça a l’air de rien. C’est invisible, silencieux, rapide. Mais imagine un milliard de personnes qui font toutes la même chose, chaque jour. Cette addition invisible, elle finit par peser très lourd.

Et on ne peut pas se permettre de l’ignorer. On est en plein dérèglement climatique. Les ressources s’épuisent. La biodiversité s’effondre. On entre dans une sixième extinction de masse, provoquée par nos choix. Et dans ce contexte, ajouter encore une nouvelle technologie énergivore, qui ne fait que renforcer cette trajectoire, c’est irresponsable.

L’IA, ce n’est pas juste un petit outil sympa. C’est une technologie qui accélère une fuite en avant. Et si on refuse de mettre en pause, de ralentir, ou au moins de réfléchir à son usage, alors on choisit – consciemment ou pas – de sacrifier encore un peu plus notre avenir collectif.

L’exploitation des travailleurs

Deuxième point. Et celui-là, on en parle beaucoup trop peu.

Pour que les IA génératives fonctionnent – comme ChatGPT ou d’autres – il ne suffit pas de les "entraîner" sur des milliards de textes. Il faut aussi, en coulisses, tout un travail humain, invisible, mal payé, souvent choquant.

Tu ne le sais peut-être pas, mais une partie de ce travail est faite par des personnes, comme au Kenya, recrutées par des sous-traitants, pour nettoyer les données. Leur rôle ? Lire des contenus violents, dégradants, souvent à la limite du supportable – et les classer, les annoter, pour que les IA apprennent à les éviter.

Ils sont payés à peine 1,50 $ de l’heure. Pour absorber, toute la journée, des images ou des textes qui tournent autour de viols, de meurtres, de racisme, de pédocriminalité.

Ce sont leurs esprits, leur santé mentale, leur dignité qui sont sacrifiés pour que nous, de l’autre côté de l’écran, on puisse profiter d’un outil “propre”, lisse, poli, qui nous répond en langage bienveillant.

Alors non, l’IA ne “fonctionne pas toute seule”. Elle fonctionne parce que d’autres humains en paient le prix. Et tant qu’on fermera les yeux là-dessus, on cautionnera ce système d’exploitation. Est-ce qu’on peut vraiment continuer à l’utiliser en toute légèreté, sans s’interroger ?

Les droits d’auteurs

Troisième point, qui peut te fait dire non à l’IA : la question des droits d’auteur.

Tu l’as peut-être déjà entendu, ou même expérimenté sans trop y penser : les IA génératives, comme Midjourney ou ChatGPT, ne créent rien de neuf. Elles brassent, recombinent, remixent. Et pour pouvoir faire ça, elles ont besoin d’énormes quantités de contenus, souvent récupérés sans autorisation.

Dans le monde de l’image, par exemple, des centaines de milliers d’œuvres d’artistes ont été aspirées pour entraîner ces IA. Des styles, des techniques, des approches personnelles, construites parfois sur des années… récupérées sans rien demander à personne. Résultat : aujourd’hui, tu peux taper “dans le style de…” et obtenir une image qui ressemble de très près à celle d’un artiste vivant, en quelques secondes. L’artiste, lui, n’a rien demandé, et n’est jamais rémunéré.

Et ce n’est pas un bug. OpenAI et d’autres entreprises l’assument : ils ont besoin de contenus protégés par le droit d’auteur pour rendre leurs modèles performants, mais ils refusent d’indemniser les créateurs sous prétexte que “le lien est trop difficile à établir”. C’est un système entièrement construit sur le pillage de ce qui existe déjà, mais avec un joli vernis d’innovation.

Et franchement, quand on connaît l’existence de banques d’images libres de droits, d’illustrateurs indépendants, d’étudiants en art qui cherchent de la visibilité, pourquoi choisir une IA ? Pourquoi renforcer un système qui ne respecte pas le droit des auteurs, alors qu’on pourrait soutenir ceux qui créent pour de vrai ?

L’engagement politique

Un autre argument, et pas des moindres, pour refuser d’utiliser l’IA, c’est qu’en l’utilisant, on contribue à valider un système qu’on devrait peut-être remettre en question.

Je m’explique.

Aujourd’hui, dans notre métier de prof, on entend beaucoup que l’IA permet de “gagner du temps”. On peut préparer des cours plus rapidement, faire des recherches plus efficacement, déléguer des tâches un peu répétitives… Et c’est vrai, c’est tentant. Surtout quand on est seule dans sa classe, avec une charge de travail qui déborde de partout.

Mais au fond, qu’est-ce que ça dit de notre système ? Qu’on est tellement débordées qu’il faut s’en remettre à une intelligence artificielle pour arriver à tenir la cadence ? Qu’on en est réduites à bricoler des solutions individuelles, faute de pouvoir compter sur un collectif, ou sur un système qui nous soutient ?

Je pense que cette course au gain de temps est une fausse solution à un vrai problème. Et qu’en adoptant l’IA pour “aller plus vite”, on envoie aussi un message : “regardez, ça va, on gère, on peut tenir.” Et ce message, il arrange bien ceux qui nous dirigent. Parce que si les profs s’adaptent, s’en sortent, “font le job” malgré tout… pourquoi est-ce qu’ils changeraient quoi que ce soit ? Pourquoi ils allégeraient la charge de travail, pourquoi ils investiraient dans plus de moyens, plus de postes ? “Ils se débrouillent, non ? Avec l’IA, c’est plus simple maintenant…”

Ce que je veux dire, c’est que chaque usage individuel de l’IA dans notre métier a un coût collectif. Parce qu’on banalise son usage. Parce qu’on donne du poids à un outil dont on n’a même pas vraiment choisi l’introduction dans nos pratiques. Parce qu’on participe à renforcer un système qui nous pousse toujours plus à l’isolement, à la performance, à l’efficacité… au détriment du temps long, du collectif, et de l’humain.

Et puis, il y a ce fantasme de remplacement. “L’IA ne remplacera jamais les profs !”… Vraiment ? On a déjà vu passer des exemples aux États-Unis où des IA sont utilisées pour corriger, pour évaluer, pour proposer des parcours d’apprentissage personnalisés. On nous dit que c’est “un soutien”. Mais on sait très bien comment ça commence. Et comment ça peut finir.

Si demain, une IA peut faire 60% de ce que fait un prof, est-ce que ça ne va pas suffire, pour certains décideurs, à estimer qu’un prof peut prendre deux classes de plus ? Ou qu’on peut “faire des économies” ? Est-ce qu’on veut vraiment participer à ça, à notre propre effacement ?

Refuser d’utiliser l’IA, c’est aussi une position politique. C’est dire : “non, je ne veux pas entrer dans cette logique.” Je veux défendre un métier humain, collectif, imparfait, mais vivant.

L’utilisation de nos données personnelles

Un autre argument pour refuser d’utiliser l’IA, c’est la question des données personnelles. Et là, je t’invite à prendre une seconde pour y réfléchir sérieusement. Parce que, soyons honnêtes, on ne sait jamais vraiment ce que deviennent les données qu’on confie à une IA.

À chaque fois qu’on utilise un outil d’intelligence artificielle, on lui donne quelque chose. Une question, un texte, une image, parfois même des infos très sensibles. Et on ne sait pas où ça va, ni comment c’est stocké, ni qui peut y accéder.

Quand tu poses une question à ChatGPT, tu n’es pas en train de discuter avec un carnet de notes. Tu alimentes un système. Tu lui donnes de la matière pour continuer à apprendre. Et parfois, sans t’en rendre compte, tu laisses passer des données sur toi, sur tes élèves, sur ton école. Tu crois que tu as effacé le nom ? Mais tu as laissé la ville, l’année, le niveau scolaire, une anecdote reconnaissable…

Et le problème, c’est que ces données peuvent être stockées, croisées, réutilisées. Parfois pour améliorer le modèle, parfois pour autre chose. Et même si OpenAI ou d’autres entreprises disent qu’elles respectent le RGPD, soyons réalistes : est-ce qu’on peut vraiment faire confiance à des multinationales américaines dont le cœur du business repose justement sur l’exploitation des données ?

Et puis il y a une autre question, plus large : quelles données a-t-on utilisées pour entraîner ces IA ? On parle de milliards de documents récupérés sur internet. Des sites, des livres, des forums, des copies d’étudiantes, des productions artistiques… Sans toujours demander l’accord des auteurs.

Alors à un moment, il faut se demander : est-ce que je veux participer à ce système ? Est-ce que je veux nourrir un outil qui ne me dit pas ce qu’il fait de mes données ? Est-ce que je suis à l’aise avec le fait que les productions de mes élèves, ou mes propres cours, puissent devenir du carburant pour une machine opaque et commerciale ?

Refuser l’IA, c’est aussi une façon de dire : “je ne donne pas mes données à n’importe qui, à n’importe quel prix.

L’illusion d’innovation

Un autre point qui peut te convaincre que l’IA n’est pas si magique que ça : l’illusion d’innovation.

Aujourd’hui, dès qu’un outil utilise de l’intelligence artificielle, il est présenté comme innovant, comme révolutionnaire. On a l’impression que si on ne l’utilise pas, on est à la traîne, déconnectée, dépassée. Comme si notre métier n’avait de valeur que s’il s’appuyait sur les dernières technologies.

Mais pose-toi une minute : est-ce que tous ces outils sont vraiment innovants ? Est-ce qu’ils permettent vraiment aux élèves de mieux apprendre, de développer des compétences plus solides, de se sentir mieux à l’école ?

Utiliser un générateur d’exercices, est-ce vraiment plus innovant que créer soi-même une activité bien pensée, adaptée à ses élèves ? Utiliser une IA pour corriger une production écrite, est-ce vraiment plus pertinent que de prendre le temps d’un retour personnalisé, qui tient compte du chemin de l’élève, de ses difficultés, de son style, de ses progrès ?

Ce qui est triste, c’est qu’on commence à confondre efficacité technique et richesse pédagogique. On croit innover quand on ne fait que déléguer. On croit “gagner du temps”, alors qu’on passe à côté de ce qui fait la richesse du métier : observer, ajuster, créer, discuter avec les élèves.

Donc oui, refuser l’IA, c’est aussi refuser de se faire imposer une vision de l’innovation qui ne nous correspond pas. C’est se rappeler que l’école n’a pas besoin d’être à la mode, elle a besoin d’être juste, humaine, exigeante et bienveillante.

La manipulation des contenus

Enfin, dernière inquiétude concernant l’utilisation de l’IA. C’est un danger plus discret, mais peut-être encore plus inquiétant : la manipulation des contenus générés par l’IA.

Ce qu’on oublie trop souvent, c’est que l’IA ne “sait” rien par elle-même. Elle ne fait que régurgiter, recombiner, reformuler ce qu’elle a appris, à partir de milliards de données glanées sur internet. Et ces données, elles ne sont pas neutres. Elles viennent du monde tel qu’il est, avec ses biais, ses stéréotypes, ses fausses informations, ses hiérarchies, ses logiques marchandes, politiques, idéologiques.

Pire encore, ces contenus sont filtrés. Par ceux qui entraînent l’IA. Par les grandes entreprises qui les développent. Par les algorithmes qui décident de ce qui est acceptable ou pas, de ce qui doit être mis en avant ou laissé de côté. En utilisant une IA générative, on accepte de déléguer une partie de notre pensée critique à un outil dont on ne maîtrise ni les sources, ni les intentions.

Et ça, quand on est enseignante, c’est très problématique. Parce qu’enseigner, c’est justement former à penser. C’est aider les élèves à interroger ce qu’on leur dit, à croiser les regards, à détecter les biais, à vérifier les faits. Pas à faire confiance aveuglément à une machine qui nous donne l’air intelligent mais qui ne fait que restituer ce qui l’arrange, ce qui a été autorisé.

Quand une IA reformule un texte pour toi, sur quelle base décide-t-elle de ce qu’elle garde, de ce qu’elle transforme, de ce qu’elle efface ? Quand elle te résume un article, est-ce qu’elle met en avant ce qui est essentiel… ou ce qui est le plus consensuel ? Quand elle écrit une activité pédagogique, quelles visions du monde, quels modèles d’élève, quelles normes implicites transmet-elle, sans que tu t’en rendes compte ?

C’est un déplacement très sournois de notre pouvoir de décision, de notre regard critique, de notre responsabilité professionnelle.

Et c’est pour ça que certaines personnes, aujourd’hui, choisissent de ne pas utiliser l’IA du tout. Par choix. Par résistance. Par lucidité.

Conclusion

Alors, faut-il bannir complètement l’IA de notre quotidien de prof ? Pour certaines, la réponse est oui. Parce qu’en utilisant ces outils, on cautionne un modèle économique fondé sur l’exploitation, l’atteinte aux droits fondamentaux, la mise à mal de notre environnement et l’effacement progressif de la dimension humaine et politique de notre métier.

C’est un positionnement fort. Et même si tu ne l’adoptes pas entièrement, je pense qu’il est essentiel d’y réfléchir. Parce que derrière chaque prompt qu’on écrit, il y a une chaîne de décisions, de conséquences, de renoncements.

Je ne vais pas te dire ce que tu dois faire. Mais je t’invite à te poser ces quelques questions :

  • Est-ce que je suis à l’aise avec le coût humain et environnemental de cet outil ?

  • Est-ce que je suis d’accord de participer à un système qui utilise des données personnelles et ne respecte pas le droit d’auteur ?

  • Est-ce que mes engagements politiques sont alignés avec une telle utilisation ?

  • Et enfin : est-ce que je choisis librement d’utiliser l’IA… ou est-ce que je me laisse porter par une tendance que je n’ai pas interrogée ?

L’IA, ce n’est pas juste un outil.

C’est une vision du monde.

À nous de choisir si on veut la faire nôtre… ou pas.

PARTAGER

Rejoins-nous !

Abonne-toi à notre newsletter et reçois directement conseils et ressources dans ta boite mail !

Un mail te confirmation te sera envoyé : n'oublie pas de valider ton adresse mail et de ne pas laisser les mails arriver dans tes spams!