Bullshit sur Graf'hit

« En effet, il y a un vrai risque de dénaturer le rôle principal de l’école : aider les élèves à développer leur esprit critique et leur autonomie. Imaginez un monde où les machines réalisent nos tâches à notre place. Selon une étude de John Doe en 2022, s’appuyer trop souvent sur des outils comme l’IA pourrait rendre les élèves moins capables de structurer leurs idées ou de résoudre des problèmes par eux-mêmes. (Alice, Bob, Claude & Daniel, 2024). »

Lire et écrire sur le Web (introduction)

Je suis enseignant-chercheur à l'Unversité de Technologie de Compiègne (UTC) et cet article fait suite à deux publications précédentes liées au déploiement de l'IA générative (IAG) dans le contexte de l'enseignement supérieur.

  • ChatGPT, turcs mécaniques ou magie noire ? (janvier 2023 sur aswemay.fr)

  • IA génératives : la fin des exercices rédactionnels à l’université ? (septembre 2023 sur aswemay.fr et framablog.org)

Depuis 2023 et la mise à disposition du grand public des IAG, cet exercice dysfonctionne. J'en retranscris un nouvel épisode dans cet article (les noms des étudiants ont été anonymisés).

À l'automne 2024 j'ai animé le cours WE01 à l'UTC avec deux collègues Quentin Duchemin et Stéphane Poinsart. C'est un cours du département Technologie, Sociétés, Humanités (TSH) que suivent des élèvent ingénieurs. Le cours était intitulé "Ecrire, communiquer et collaborer sur le web" et il consistait en des apports théoriques autour du fonctionnement technique de l'Internet, de l'histoire du Web, du droit d'auteur et de la culture libre, du capitalisme de surveillance ou encore des enjeux sociaux-écologiques liés au numérique. Le cours comporte également des apports méthodologiques autour de la lecture et la production d'articles scientifiques ou la critique de ce que le Web produit.

Le travail demandé aux étudiants en WE01 était essentiellement tourné vers la réalisation de fiches de lecture et de productions écrites de type scientifique autour de ces thématiques, en groupe, publiées en ligne sous licence libre, finalisées par une présentation en direct sur la radio locale Graf'hit.

IA et école (le récit en bref)

Alice, Bob, Claude et Daniel ont rédigé ensemble 3 séries d'articles, dont la dernière a donné lieu à une lecture en direct sur la radio Graf'hit. Nous faisons ici une synthèse du processus de rédaction qui a été mobilisé. Le déroulé complet de leurs travaux, détaillé article par article, peut-être consulté en annexe.

Étape 1a, le plan détaillé de Bob (fait avec ChatGPT)

Bob injecte dans ChatGPT la bibliographie, et probablement le sujet, donnés par les enseignants au début de cours, afin d'obtenir un plan détaillé. On y trouve des rubriques comme "concepts vus en cours" qui ne correspondent pas à des concepts vus en cours ou des "arguments réfutables" qui répondent à une demande de produire des arguments réfutables, mais au sens de Karl Popper, alors qu'ici le sens et plutôt le sens trivial (ChatGPT n'a pas assisté au cours).

Exemple d'extrait de plan détaillé obtenu avec ChatGPT à partir du sujet fourni en entrée par les enseignants

B. Valeur éducative et éthique des exercices rédactionnels

  • Concepts vus en cours : L'éthique du travail intellectuel et la question de l’authenticité dans la production du savoir. Importance de la production d'écrits personnels dans l’éducation pour développer l’individualité.

  • Contre-argument réfutable : Peut-on se contenter d'une écriture automatisée sans perdre en humanité et en sens critique ?

Étape 1b, les références de Bob (fait avec ChatGPT)

Bob demande également à ChatGPT des références bibliographiques pour étayer les propos, ce qui est aussi une consigne donnée dans le cours. Cela conduit à l'apparition de sept sources hallucinées, c'est à dire sept références bibliographiques crédibles mais totalement inventées (les revues scientifiques mentionnées existent pour la plupart).

On note le J. Doe du début, qui correspond en anglais à une personne non identifiée (typiquement en cas de découverte d'un cadavre sans papier dans une série américaine). L'enseignant relit le plan détaillé, mais ne vérifie pas les références. Il prend donc le temps de corriger ce travail de ChatGPT et le trouve globalement de bonne qualité. Bravo ChatGPT.

Exemple de références bibliographiques hallucinées obtenues avec ChatGPT

Doe, J. (2022). Privacy Concerns in AI-Powered Education Systems. Journal of Educational Technology, 45(3), 123-145.

Jones, L. (2019). Automated Grading Systems: Benefits and Challenges. Educational Review, 32(2), 250-265.

Miller, A. (2021). Bias in Educational AI Algorithms: A Critical Review. AI & Society, 36(1), 89-102.

Smith, P., Johnson, T., & Davis, R. (2021). Adaptive Learning Platforms and Their Impact on Student Success. Journal of Learning Analytics, 5(1), 45-67.

Tanaka, S. (2020). AI in Classroom Management: Pilot Projects in Japan. Japanese Journal of Educational Technology, 36(4), 210-225.

Taylor, M. (2022). Artificial Intelligence in Education: Friend or Foe? Educational Futures, 12(2), 98-115.

Helsinki Study (2023). AI and Pedagogy: Experimental Schools in Finland. Educational Research Quarterly, 40(3), 78-95.

Étape 2, la rédaction de Claude (fait sans ChatGPT et sans esprit critique)

Claude ne participe pas du tout à la mise au point du plan détaillé, il laisse Bob travailler seul. Il repart ensuite de ce plan détaillé, et sans aucune interaction avec Bob, sans consulter les sources, il fait un travail de développement du plan sous forme de phrases. Il ajoute néanmoins quelques éléments provenant de sources authentiques.

Ici on note donc que Claude ne fait pas directement usage de l'IA, mais qu'il finalise un article complet sur la base d'un plan complètement produit par IA et de références inventées. C'est un très bon cas de prolétarisation, on a une division des tâches et des responsabilités : Bob produit le plan, puis Claude produit l'article, sans interaction humaine riche, suivant une logique de travail à la chaîne.

Exemple d'extrait de plan détaillé obtenu avec ChatGPT mobilisé en entrée pour mener une rédaction sans ChatGPT

L'IA pourrait-elle remplacer l'enseignant ?

  • Argumentation face à l'hypothèse que l'IA pourrait réduire les interactions humaines en classe (Taylor, 2022).

  • Proposition : L'IA doit être considérée comme un outil complémentaire et non comme un substitut de l'enseignant.

Exemple de rédaction réalisée par Claude sans ChatGPT sur la base du plan détaillé précédent

L'IA pourrait-elle remplacer l'enseignant ? Si l’IA permet d'automatiser des tâches et de personnaliser l’apprentissage, elle ne peut remplacer l'interaction humaine essentielle. C'est d'ailleurs ce que défend Taylor (2022) avec l'avertissement qu’il propose face à la baisse d'interactions humaines en classe. Or, l'enseignant apporte un soutien émotionnel et une compréhension de l'humain que l'IA ne peut bien entendu pas produire. (Cuisinier, 2007).

L'IA devrait donc compléter l'enseignant et non le remplacer. De plus nous agissons différemment quand on se sait observé (effet Hawthorne), ce qui rajoute une limite supplémentaire, qu’il convient de notifier.

Étape 3, la réponse de Daniel (fait avec ChatGPT)

Alice et Daniel produisent en réponse un autre texte qui défend une position plus en faveur des IA, afin de construire pour la radio un dialogue autour d'études scientifiques orientées pour et contre.

Daniel injecte dans ChatGPT le texte de Bob et Claude et demande à ChatGPT un nouveau plan pour y répondre. Celui-ci sera donc basé sur un plan déjà généré avec ChatGPT et des fausses références. Il demande aussi à ChatGPT de nuancer ses propos. Il mobilise également un article réel, celui de Crozat (qui existe bien, nous pouvons en témoigner). Notons que cet article traite d'un cas précédent d'usage frauduleux de ChatGPT dans le même cours WE01 un an auparavant. Daniel l'a-t-il lu ?

Le résultat obtenu n'est plus cohérent avec les propos prêtés aux auteurs inventés, personne ne se rend compte que cela n'a plus de sens, même au sein de la fiction créée par ChatGPT.

Alice et Daniel se retrouvent avec une seconde bibliographie hallucinée. Il y a une cohérence partielle avec la première, on retrouve presque les mêmes entrées... Mais les auteurs, articles et revues se mélangent, suivant la logique combinatoire de l'IAG. Doe est remobilisé autour des données personnelles, tandis que Miller est dans un cas mobilisé sur les algorithmes de recommandations, dans l'autre sur les inégalités de ressources dans les écoles.

Exemple de proposition de ChatGPT avec nuance et avec citation de faux articles

Enfin, l'affirmation selon laquelle l'IA "ne remplacera pas l'enseignant" mérite également d'être nuancée. Smith et Lee rappellent que l'IA peut modifier de manière intrinsèque le rôle de l'enseignant, le faisant passer d'un "transmetteur de savoirs" à un "facilitateur d'apprentissages".

Seconde bibliographie hallucinée, variation combinatoire de la première

Doe, J. (2022). Educational Spaces and Data Privacy: Rethinking Schools in the Age of AI. Journal of Educational Ethics.

Miller, A. (2021). Equality in Education: Addressing Technological Disparities in the Classroom. International Review of Educational Technology.

Smith, L., & Lee, R. (2021). Adapting Learning with Artificial Intelligence: Challenges and Opportunities. Advances in Educational Technologies.

Tanaka, H. (2020). Administrative Efficiency through AI: An Educational Perspective. Asian Journal of School Management.

Taylor, C. (2022). The Role of Teacher-Student Interaction in Non-Digital Classrooms. Educational Research and Practice.

Helsinki Study. (2023). Human-Centered Education in the Digital Age: Case Studies from Finnish Schools. Nordic Journal of Pedagogical Innovation.

Étape 4, la réponse d'Alice (fait avec ChatGPT)

Alice rédige partiellement sans ChatGPT, exclusivement à partir de la seconde version de la bibliographie. On note dans cette intervention l'apparition des prénoms des faux auteurs. Peut-être ont-ils été demandés à ChatGPT pour correspondre au format demandé en cours.

On note aussi l'apparition de nouveaux arguments prêtés à certains auteurs inventés. Comme les articles n'existent pas, la seule façon d'étayer leur contenu avec de nouveaux arguments était d'interroger à nouveau ChatGPT.

Premier argument généré avec ChatGPT

L'éducation sans IA privilégie l'interaction directe entre enseignants et élèves, permettant un lien pédagogique plus fort, difficilement remplaçable par des technologies (Taylor, 2022)

Argument complémentaire demandé à ChatGPT

Charlotte Taylor en 2022 ajoute que cela peut même appauvrir le processus d’apprentissage en rendant les enseignements moins inspirants et moins personnalisés.

Travail à la chaîne

Là où les étudiants avaient comme consigne de travailler ensemble, en groupe, ils ont plutôt mis en place un travail séquentiel. Dans ce cadre, ils semblent avoir très peu communiqué entre eux et ne pas s'être relus les uns et les autres.

S'ils n'avaient pas utilisé ChatGPT ils auraient probablement été obligés de collaborer, certains travaux trop peu qualitatifs les auraient fait réagir et auraient, sinon, fait intervenir l'enseignant.

J'ai failli oublier

Vous l'avez peut-être deviné, mais le sujet traité par les étudiants était... IA et école.

On a pas envie de lire des textes écrits par des machines (consignes et autres éléments de contexte)

« L'usage d'IA génératives est simplement interdit dans le cadre de l'UV : ça ne vous apportera rien puisque le but est d'apprendre à écrire par vous-même. (extrait de la présentation du cours WE01 en 2024) »

Contexte

L'usage des IAG était donc interdit dans le cadre du cours et le règlement des études de l'UTC a été aménagé en 2024 pour interdire a priori l'usage des IAG (elles ne sont autorisées que si les profs l'explicitent).

Nous avons découvert l'usage d'IAG uniquement à la fin, en direct, à la radio alors que des références inventées par ChatGPT étaient mobilisées et que l'auteur John Doe interpelle l'enseignant qui anime l'émission. Après ré-étude du contenu nous avons soulevé un usage pluriel de l'IAG dans le cadre de WE01 par ces 4 étudiants (voir le récit complet en Annexe).

Nous avons rencontré ces 4 personnes pour un entretien d'environ 15 minutes chacune et leur avons posé 3 questions :

  1. Avez-vous utilisé une IAG dans le cadre de l'un de vos exercices rédactionnels ?

  2. Saviez-vous que l'IAG était interdite dans le cadre de ces exercices ?

  3. Auriez-vous été capables de réaliser les exercices sans utiliser l'IAG ?

Premières hypothèses

À l'issue de cet échange, voici ce que nous avons relevé :

  • Claude a un usage marginal de ChatGPT de son côté (mais néanmoins existant malgré l'interdiction). Il s'est appuyé sur des travaux générés avec ChatGPT par ses collègues dont il est surprenant qu'il n'ait pas questionné l'origine. Il savait que l'usage de ChatGPT était interdit.

  • Alice et Daniel ont un usage récurrent de ChatGPT, ils ne sont pas à l'origine des fausses références détectées, mais leur usage de ChatGPT a conduit à continuer le projet jusqu'au bout avec ces fausses références. Ils savaient que l'usage de ChatGPT était interdit.

  • Bob est à l'origine du plan détaillé avec fausses références ; il a un usage important de ChatGPT qu'il justifie par le fait qu'il ne savait pas que c'était interdit ; sa moins bonne maîtrise du français étant non francophone ; une situation personnelle qui l'a conduit à être moins disponible pour ses études et peut-être à une situation d'isolement. Il affirme qu'il ne savait pas que l'usage de ChatGPT était interdit.

  • Il est peu crédible que Bob ne savait pas que l'usage de ChatGPT était interdit, cela supposerait une absence de communication totale entre lui et les autres membres du groupe. Si Bob ne sait pas que c'est interdit, il n'a pas de raison de le cacher ; donc il le dit aux autres, qui lui disent que c'est interdit.

  • Il est peu crédible qu'un des membres du groupe ne savait pas que ChatGPT avait été assez largement utilisé par d'autres membres et donc que le rendu final dont il est signataire avait largement mobilisé ChatGPT.

Les quatre étudiants avaient correctement suivi l'UV tout au long de l'année et étaient considérés par leur encadrant comme des élèves sérieux. Ils ont semblé honnêtes et désolés dans les échanges que nous avons eus avec eux. Ils ont présenté des excuses et ont semblé prendre conscience du caractère fâcheux de la situation.

J'ai l'impression que ces étudiants ont tellement intégré l'IA générative dans leurs usages qu'ils ne sont pas rendu compte de l'importance de ce qu'ils faisaient malgré leur connaissance de l'interdiction :

  1. jusqu'à énoncer des références inventées en direct à la radio dans le cadre d'un exercice qu'ils ont trouvé très intéressant et valorisant ;

  2. dans un contexte avec très peu de pression scolaire, leur régularité dans le cours leur en assurait la validation, même avec un rendu médiocre à la fin ;

  3. dans un cadre relationnel de confiance assez horizontal avec les enseignants.

D'abord ne pas lire (quelques perles)

Nous sélectionnons ici quelques citations provenant du travail fourni par les étudiants. La citation de début d'article leur est également créditée.

Nous nous passerons de commentaire, sidérés en quelque sorte, par la pertinence de tels propos critiques vis-à-vis de l'usage de l'IAG dans le contexte pédagogique, écrits sous la dictée de l'IAG.

  • « Avec l'avènement de l'intelligence artificielle (IA), les pratiques éducatives, notamment les exercices de rédaction, sont mises à l'épreuve. Il devient tentant de laisser les machines écrire à notre place, mais la question se pose : est-ce réellement bénéfique pour les étudiants ? »

  • « Au cœur de la question se trouve l'importance cognitive et créative de l'écriture. Bien plus qu'un simple moyen de communication, l’écriture est un outil puissant pour structurer notre pensée. »

  • « Si l'on délègue ces tâches à une IA, on risque de perdre cette précieuse occasion d'entraîner nos capacités cognitives. »

  • « C'est une démarche éthique : l’apprenant ne se contente pas de répéter des informations, il les reformule et se les approprie. En remplaçant cette démarche par l’automatisation, ne risquons-nous pas de perdre cette dimension humaine, essentielle à la construction de notre individualité ? »

  • « Pourtant, n’y a-t-il pas un risque que cette facilité entraîne une paresse intellectuelle, voire une dépendance à l'IA pour formuler nos pensées ? »

  • « Son utilisation massive par les étudiants est pourtant indiscutable ; nos professeurs qui se plaignent régulièrement de corriger des copies réalisées par IA ce qu'il considère, à juste titre, comme une perte de temps. »

Si les étudiants étaient passés à côté de leur sujet il y aurait eu une certaine cohérence, mais ici les problématiques sont très bien transcrites par leurs travaux. Qui tire quel bénéfice de l'IAG ? Quelles conséquences ? Déstructuration de la pensée ? Perte cognitive ? Question éthique ? Construction de l'individualité ? Paresse ? Dépendance ? Perte de temps...

Si l'on fait l'hypothèse que les étudiants ont tout de même lu ce qu'ils ont rendu, on observe donc une décorrélation entre la prise de recul proposée par leurs propos et l'absence totale de distance manifestée dans leur pratique.

Des étudiants modèles (c'est surprenant, malgré tout)

Un cas exemplaire

On pourra penser que ce cas est isolé et qu'il ne fait pas bon raisonner à partir d'un cas particulier.

Mais le cas n'est pas isolé. Je relève des cas similaires depuis 2023 et l'arrivée de ChatGPT. Suite à l'émission de radio, nous avons pris un temps de relecture d'autres travaux, révélant l'usage, moins évident, sans rôle principal pour John Doe, mais néanmoins régulier, d'IAG. Les échanges avec les collègues et les étudiants confirment également cette généralisation.

Par ailleurs, les étudiants forment un modèle raisonnable pour notre analyse. Ils sont assez représentatifs de la population UTCéenne, un étudiant étranger en reprise d'étude, deux étudiants tout juste sortis du lycée et un dernier en second semestre d'étude. Ces étudiants sont tout de même tous les quatre présents à l'UTC depuis moins d'un an, on pourra faire l'hypothèse que des personnes plus expérimentées auraient moins utilisé l'IAG... ou se seraient moins fait détecter.

Rappelons que l'entrée à l'UTC est fortement sélective, les étudiants qui entrent à l'UTC étaient tous des "premiers de la classe" au lycée. Je ne sais pas exactement quoi faire de cette information, on pourra penser que des bons élèves sont moins enclins à tricher, au contraire que ce qui a fait leur réussite est leur habitude à optimiser, ou encore que confrontés pour la première fois à des difficultés scolaires à l'UTC ils n'ont pas su bien réagir. Les échanges avec des élèves de terminale font penser que tous utilisent les IAG, élèves à l'aise avec leur scolarité ou non.

Il y avait néanmoins des raisons objectives de penser que dans le cadre du cours WE01 les étudiants auraient pu être moins enclins à l'usage d'un ChatGPT.

Un cas surprenant sur le fond

Sur le fond, le sujet même du cours porte sur une dimension critique vis-à-vis du numérique, des enjeux socio-techniques associées, avec, notamment une réflexion sur le capitalisme du surveillance et la captation des données par les GAFAM. Surtout, le cours comporte une partie consacrée à l'écriture scientifique, qui expose le concept de réfutabilité de Karl Popper ou encore... l'importance de vérifier et citer ses sources !

« Lorsqu'une ressource est pré-sélectionnée, vérifier et qualifier la source permet de pré-évaluer la fiabilité de la ressource. (Cours de WE01, https://librecours.net/modules/methodo/com02/) »

Un cas surprenant sur la forme

Sur la forme, WE01 est un cours plutôt "cool", avec du travail horizontal et des méthodes assez proches de l'éducation populaire. Certains étudiants tutoient les profs ce qui assez inhabituel en début de cursus. On pourrait penser que l'idée de tricher dans ce contexte aurait posé des freins moraux. Enfin le cours n'intégrait pas d'examen et la validation était assurée sur la base d'une "obligation de moyen" : être présent, faire le job honnêtement. Tricher dans ce contexte était surprenant.

Une hypothèse néanmoins est que nous avons insisté sur le caractère "pour de vrai" des exercices proposés : articles publiés sur le web et communiqués via les médias sociaux, passage en direct à la radio. Peut-être avons nous réussi, en quelque sorte, sur ce point, et que leur interprétation du "pour de vrai" a impliqué pour eux, in fine, une obligation de résultat, quels que soient les moyens.

IA embarquée

Une hypothèse complémentaire est que ces étudiants ont tellement intégré l'IA générative dans leurs usages qu'ils ne sont plus aptes à en évaluer les conséquences pour eux. Ils se retrouvent à tricher et prendre des risques importants pour leur scolarité dans un contexte avec très peu de pression scolaire et dans un cadre relationnel de confiance. C'est donc à la fois une très mauvaise évaluation bénéfices/risques et une mauvaise attitude vis-à-vis de leur propre sens éthique.

Je pense que cet usage est fortement généralisé à l'UTC, ce qui les dédouane un peu et nous interroge fortement en retour ; leur erreur est un usage tellement médiocre qu'ils ont laissé passer une ou deux fausses références grossières, mais nous aurions pu ne pas nous en apercevoir, et nous pensons que ça a été le cas pour d'autres groupes.

Je fais l'hypothèse que ces habitudes ont été ancrées au lycée et même qu'ils ont perdu des compétences de rédaction et de travail en groupe que nous attendons de leur part (et cela peut nous interroger, peut-être encore plus que nous le faisons déjà, sur les conséquences à l'UTC). Cela va plus vite de faire faire par ChatGPT, que de s'installer et prendre un temps pour partager un espace de travail à plusieurs. Donc : ça vaut le coup. Ils ne se sont pas "fait prendre" ou n'ont pas subi de conséquences importantes jusque-là. Donc : ça marche.

Commentaire de ma collègue et amie Christine Roger (Université de Picardie Jules Verne)

« Voici ma lecture de la situation : je pense qu'ils ont été dépassés par l'exercice demandé, qui impliquait 1) un projet de groupe intégrant 2) une série d'éléments "performatifs" avec des codes complexes et destiné à 3) un public de lecteurs et d’auditeurs. »

« Habitués à des exercices réalisés dans le cocon rassurant d'une salle de cours, les étudiants se sont soudain retrouvés projetés "dans le réel", contraints pour la première fois de réfléchir aux attentes d’un public. Il y avait de quoi être tétanisé ! »

« Ainsi, même en l'absence d'évaluation et dans un cadre aux hiérarchies horizontales, la pression de "livrer" un travail et de s'exposer doublement — par l’écrit et par la parole — au jugement d’inconnus était forte. On observe bien qu’ils ont été dépassés dès la première étape : ils n’ont pas su s’organiser ni ritualiser leur collaboration. Cela a entraîné une forme de dissonance cognitive, où des étudiants pourtant bien intentionnés et très certainement dotés d’un bon esprit critique se retrouvent déboussolés, optant alors pour une stratégie d’évitement. »

Effets de constitutivité technique (quelques réflexions)

Thèse TAC

La thèse TAC, pour Technologie Anthropologiquement Constitutive, formalisée à l'Université de Technologie de Compiègne, trouve son origine dans les travaux des anthropologues et philosophes André Leroi-Gourhan, Gilbert Simondon ou Bernard Stiegler. Une hypothèse fondatrice de cette théorie est que les humains et les objets techniques forment un couplage indissociable, dès l'origine. On abandonne l'idée que l'humain précède et surplombe la technique, que celle-ci n'est que le simple produit du travail ou de l'intelligence humains, postérieure à une humanité qui en serait indépendante (Steiner, 2010).

La technique n'est pas un élément extérieur à l'humanité, mais la façon même dont celle-ci conçoit le monde. Les trains modifient la proximité entre les villes selon les connexions existantes ou non, la lumière artificielle modifie les cycles du jour et de la nuit, ou celui des saisons, les voyages spatiaux permettent d'imaginer exploiter des ressources situées dans l'espace ou se réfugier sur une autre planète si la terre n'est plus habitable.

Technique non neutre

Les objets techniques portent en leurs propriétés physiques des possibles et des probables. Le couteau, dur, pointu, solide, avec une lame d'une certaine taille embarque le geste de planter. Une propriété fondamentale du téléphone portable est qu'il est... portable. Sa taille, son autonomie, son mode de préhension rendent sa présence permanente au côté de l'humain aisée, naturelle en quelque sorte.

La technique n'est donc jamais neutre puisqu'elle configure notre rapport au monde. Nos usages, nos intentions, nos projets, ce que l'on veut faire, sont déjà, au moins en partie, pré-configurés par l'accès au monde rendu possible via la technique. La technique n'est pas neutre non plus car ceux qui la développent ne sont pas neutres. Les concepteurs d'une technique ont des représentations du monde qui sous-tendent ce pourquoi il veulent la faire advenir, ils visent un objectif qui est souhaitable, bon, selon eux. (Steiner, 2024)

Raison computationnelle

Écrire avec un ordinateur, c'est écrire avec une machine à calculer. Donc, à un moment ou un autre, on a envie de la faire calculer. J'ai fait de l'ingénierie documentaire pendant 20 ans, l'objectif de mes travaux via la conception de chaînes éditoriales était d'automatiser, de calculer donc, des tâches de manipulation documentaires (Crozat, 2007). Parce que l'on considère que la mise en forme n'est pas une étape créative, qu'elle n'a pas de réelle valeur ajoutée, que l'on peut la déléguer à la machine. Je me souviens, tout de même, avoir croisé des éditeurs, des artisans de la mise en forme, qui n'étaient pas d'accord. Je devais penser qu'ils étaient rétrogrades, qu'ils s'accrochaient à un savoir-faire en voie de disparition. On dirait, à présent que c'est moi qui m'accroche...

En tous cas, en fin de compte, puisque la technique n'est pas neutre, ce qui compte c'est de se demander ce que le numérique en général, et l'utilisation de l'IA en particulier fait à notre pensée. Dans le lignée de Jack Goody, Bruno Bachimont (2000) parle de raison computationnelle pour désigner ces transformations induites par l'usage du numérique.

Pharmakhon

La technique pose toujours problème, c'est par essence un pharmakon, un remède en même temps qu'un poison, au sens qu'a réactivé Bernard Stiegler depuis Platon. Par exemple, l'écriture est un remède aux limites de la mémoire humaine, en même temps, ce qui amoindrit cette mémoire. L'informatique permet d'objectiver des impacts socio-écologiques tout en engendrant de nouveaux impacts socio-écologiques.

« [Platon] décrit alors l’écriture alors comme un pharmakon, mot grec signifiant à la fois le remède et le poison : à la fois remède pour la mémoire, car elle permet de stocker et de conserver les connaissances accumulées, mais aussi poison pour la pensée, car en fixant les connaissances et en épargnant aux individus de se les remémorer, l’écriture empêche leur mémoire de s’exercer. Bref, l’écriture, qui semblait innocente et bénéfique, a aussi de quoi inquiéter (Alombert, 2023). »

Prolétarisation

Un problème soulevé par l'usage des IAG qui doit être considéré en contexte pédagogique est celui de la prolétarisation intellectuelle, phénomène déjà largement observé et étudié sur le plan des activités manuelles dans le cadre de l'industrialisation. La prolétarisation est « ce qui consiste à priver un sujet (producteur, consommateur, concepteur) de ses savoirs (savoir-faire, savoir-vivre, savoir concevoir et théoriser) »(Petit, 2013).

« Passer une commande à une machine, aussi performante soit-elle, ne revient pas à exercer techniquement sa pensée ; au contraire, le savoir-écrire a ici été extériorisé dans la machine numérique sous forme d’automatismes algorithmiques, de même que les savoir-faire avaient été extériorisés dans les machines-outils sous forme d’automatismes mécaniques. De même que l’artisan privé de ses savoir-faire s’était vu prolétarisé. En perdant nos savoir-écrire, nous risquons de devenir des prolétaires de la pensée. (Alombert, 2023) »

Anne Alombert (2025) précise que « nous risquons de perdre notre capacité à nous exprimer en la déléguant aux algorithmes et en nous contentant de lire bêtement les textes produits » et avec elle notre capacité non seulement de mémorisation, mais, peut-être surtout d'imagination.

Substitution

En tous cas, l'idée que la machine est un instrument de délégation des travaux humains pénibles est ancré depuis la période industrielle au moins, probablement depuis la révolution agraire. L'ordinateur est dédié aux tâches cognitives, certains trouveront les tâches d'écriture fastidieuses, il est logique que l'ordinateur soit alors mobilisé comme assistance. Puis, de l'assistance au remplacement il n'y a qu'un pas. L'histoire de l'industrie nous le montre également.

À ce stade, la question que l'on doit se poser, c'est quel sens cela a-t-il de former la lecture et à l'écriture dans un monde où les IAG savent faire ce travail infiniment plus rapidement ?

Apprendre à bien rédiger ses "prompts" ? (apprendre à bien visser des boulons...)

Une idée défendue par certains comme une évidence, puisqu'il faut bien vivre avec son temps, serait de faire évoluer les formations pour, non plus enseigner comment, par exemple, bien lire et écrire, mais plutôt comment bien utiliser les IAG pour faire ce travail à notre place. C'est aussi applicable à l'expression graphique ou à l'écriture de code informatique. S'il est raisonnable de penser, sur le modèle de l'artisanat, que certaines tâches intellectuelles continueront d'échapper à la machine, il est tout aussi raisonnable de penser, sur le modèle de la mécanisation des tâches manuelles déjà opérée, que le bon usage d'une machine avancée ne nécessitera pas de compétences avancées.

Ces 14 prompts ChatGPT vont te transformer en machine à productivité (LinkedIn, 2024)

Selon Jacques Ellul, c'est la recherche systématisée de l'efficacité qui est problématique, car elle vide de leur sens les tâches qui sont menées, transformant le pourquoi on fait en comment on fait le plus efficacement possible (Rognon, 2020). Ainsi, l'idée de faire évoluer nos cours vers des formations à l'usage des IAG pourrait bien impliquer une évolution de l'ingénierie, de la conception de machines donc, à un objectif amoindri, d'utilisation de machines, voire d'utilisation par les machines.

ChatGPT 1 - Nous 0

WE01 v2

Nous observons donc que les étudiants ne savent plus, en entrant à l'université, jouer le jeu de la lecture et de l'écriture, et qu'il le font faire, au moins en partie, par une IAG. D'autre part, nous nous questionnons sur l'intérêt même de défendre ce type de compétence quand on observe en aval que les ingénieurs mobilisent également massivement ces outils pour faire de la veille, produire des rapports ou des présentations. Eux non plus ne veulent plus ni lire ni écrire.

En attendant de mieux comprendre ce qui se passe et comment faire évoluer nos formations, nous avons procédé à quelques modifications. WE01 était intitulé "Ecrire, communiquer et collaborer sur le web", nous le renommons "Questionner le Web" et le faisons évoluer en conséquence. Nous avons assoupli les exercices rédactionnels, décidés à être moins exigeants et à demander un travail plus modeste en volume. En contre-partie nous avons restitué un examen de contrôle des connaissances. L'objectif du cours devient alors moins de savoir écrire que de disposer d'éléments pour aider à se poser des questions et à remettre en cause les évidences du numérique, dans une logique technocritique.

Nous déconseillons l'usage des IAG tout en les autorisant. Nous imposons en revanche une prise de recul, inspirés par ce que notre collègue Hugues Choplin à développé à l'UTC dans le cadre de son cours IS04.

« Vous ajouterez une section IAG à votre projet pour spécifier si vous avez utilisé des IAG (ou des IA de correction, de traduction...) et si oui : Indiquez quelles IA ont été utilisées, pour quelles parties du travail et pour quelles raisons ; Reproduisez une copie des prompts et des résultats ; Indiquez si les résultats ont été retravaillés et comment. (extrait de la présentation du cours WE01 en 2025) »

Attendre, observer, agir, réagir

Nous réfléchissons à un cours WE02 "Questionner l'IA" qui serait un pendant de WE01, orienté vers l'IA donc. Nous avons pris la décision d'attendre deux ou trois ans pour cela, histoire de se donner de l'espace pour consacrer l'énergie nécessaire au suivi d'une actualité très dynamique. Histoire également de se donner un peu de temps pour mieux analyser les évolutions en amont au lycée, en aval dans le monde socio-économique, et aux initiatives prises dans l'enseignement supérieur. Histoire, peut-être, que le domaine se stabilise un peu... ou pas.

  • D'autres collègues du département TSH à l'UTC envisagent d'intégrer le questionnement de l'IA à leur enseignement. Un service d'IAG hébergée localement est expérimentée, afin, a minima de sortir de la dépendance aux géants étatsuniens (Poinsart, 2025).

  • L'association Picasoft de l'UTC et l'association Framasoft (dont je fais partie) ont signé le manifeste Hiatus, « une coalition composée d’une diversité d’organisations de la société civile française qui entendent résister au déploiement massif et généralisé de l’intelligence artificielle ».

  • L'association Framasoft a lancé le site Framamia, pour aider à suivre et comprendre, et pour faire des propositions alternatives dans le domaine de l'IAG, dans une perspective de littératie technique.

Ces diverses attitudes sont autant de pistes pour maintenir une attitude active et critique vis-à-vis d'un phénomène qui percute l'ensemble de la société et que nous ne pouvons ignorer dans l'enseignement supérieur. Même quand on ne s'y intéresse pas par plaisir, donc.

Annexe