IA et école (le récit complet)
Premier article, par Alice et Bob (fait avec ChatGPT)
Alice et Bob travaillent en binôme pour écrire un premier article à partir d'un sujet et d'une bibliographie fournis par un enseignant.
Bob injecte la bibliographie, et probablement le sujet, donnés par les enseignants dans ChatGPT afin d'obtenir un plan détaillé. On y trouve des rubriques comme "concepts vus en cours" qui ne correspondent pas à des concepts vus en cours ou des "arguments réfutables" qui répondent à une demande du cours de produire des arguments réfutables, mais au sens de Karl Popper, alors qu'ici le sens et plutôt le sens trivial (ChatGPT n'a pas assisté au cours).
B. Valeur éducative et éthique des exercices rédactionnels
|
Bob injecte ensuite les différentes parties de ce plan pour obtenir des paragraphes rédigés.
B. Valeur éducative et éthique des exercices rédactionnels Au-delà des compétences techniques, l’écriture est un acte personnel et authentique. Elle permet à chaque individu de s’approprier les idées, de les comprendre à travers ses propres mots et de se construire en tant que penseur. C'est une démarche éthique : l’apprenant ne se contente pas de répéter des informations, il les reformule et se les approprie. En remplaçant cette démarche par l’automatisation, ne risquons-nous pas de perdre cette dimension humaine, essentielle à la construction de notre individualité ? Certains pourraient arguer que l’IA offre simplement une alternative plus efficace pour atteindre des résultats similaires. Pourtant, n’y a-t-il pas un risque que cette facilité entraîne une paresse intellectuelle, voire une dépendance à l'IA pour formuler nos pensées ? |
Dans un troisième temps Alice intervient sur le texte avec une rédaction qui semble originale avec l'ajout de références réelles. Cette contribution correspondant au travail demandé correspond à environ 25% de la première version de la contribution finale en terme de quantité de texte.
Premier article, par Claude et Daniel (probablement fait avec ChatGPT)
Claude et Daniel produise également en binôme un premier article. Le plan détaillé semble également produit avec ChatGPT avec une méthode similaire. La rédaction est ensuite manuelle sur la base du plan.
Second article, étape 1, le plan détaillé et les références bibliographiques de Bob (fait avec ChatGPT)
Dans le cadre de leur passage à la radio, Bob et Claude doivent produire un autre article ensemble. ChatGPT est utilisé à nouveau par Bob pour produire un plan détaillé. Une autre méthode est cette fois utilisée, elle conduit à l'apparition de sept sources hallucinées, c'est à dire sept références bibliographiques crédibles mais totalement inventées (les revues scientifiques mentionnées existent pour la plupart).
Doe, J. (2022). Privacy Concerns in AI-Powered Education Systems. Journal of Educational Technology, 45(3), 123-145. Jones, L. (2019). Automated Grading Systems: Benefits and Challenges. Educational Review, 32(2), 250-265. Miller, A. (2021). Bias in Educational AI Algorithms: A Critical Review. AI & Society, 36(1), 89-102. Smith, P., Johnson, T., & Davis, R. (2021). Adaptive Learning Platforms and Their Impact on Student Success. Journal of Learning Analytics, 5(1), 45-67. Tanaka, S. (2020). AI in Classroom Management: Pilot Projects in Japan. Japanese Journal of Educational Technology, 36(4), 210-225. Taylor, M. (2022). Artificial Intelligence in Education: Friend or Foe? Educational Futures, 12(2), 98-115. Helsinki Study (2023). AI and Pedagogy: Experimental Schools in Finland. Educational Research Quarterly, 40(3), 78-95. |
NB : On note le J. Doe du début, qui correspond en anglais à une personne non identifiée (typiquement en cas de découverte d'un cadavre sans papier dans une série américaine).
L'enseignant relit le plan détaillé, mais ne vérifie pas les références. Il prend donc le temps de corriger ce travail de ChatGPT et le trouve globalement de bonne qualité. Bravo ChatGPT.
Second article, étape 2, la rédaction de Claude (fait sans ChatGPT et sans esprit critique)
Claude ne participe pas du tout à la mise au point du plan détaillé, il laisse Bob travailler seul. Il sait probablement que Bob fonctionne ainsi puisque c'est déjà la démarche employée pour le premier article (si Claude ne sait pas que Bob a utilisé ChatGPT alors : soit il ne communiquent pas du tout entre eux dans le cadre d'un travail supposé de groupe ; soit Bob le cache à Claude).
Il repart du plan détaillé, et sans aucune interaction avec Bob, sans consulter les sources, il fait un travail de développement du plan sous forme de phrases.
Par exemple :
L'utilisation de l'IA implique la collecte massive de données personnelles. Cela pose des questions sur la confidentialité et la sécurité des données des élèves. Exemples de scandales liés au traitement des données dans les systèmes éducatifs (Doe, 2022). Proposition d'un cadre éthique rigoureux pour garantir la protection des données des élèves (RGPD, 2018). |
devient :
L'utilisation de l'IA implique la collecte massive de données personnelles. Cela pose des questions sur la confidentialité et la sécurité des données des élèves. Le traitement des données de cette manière est à l’origine de plusieurs scandales dans les systèmes éducatifs (Doe, 2022). Il s'agirait donc ici de créer un cadre éthique rigoureux pour garantir la protection des données des élèves (RGPD, 2018). |
Il ajoute aussi du contenu provenant de sources authentiques. Ainsi :
L'IA pourrait-elle remplacer l'enseignant ?
|
devient :
L'IA pourrait-elle remplacer l'enseignant ? Si l’IA permet d'automatiser des tâches et de personnaliser l’apprentissage, elle ne peut remplacer l'interaction humaine essentielle. C'est d'ailleurs ce que défend Taylor (2022) avec l'avertissement qu’il propose face à la baisse d'interactions humaines en classe. Or, l'enseignant apporte un soutien émotionnel et une compréhension de l'humain que l'IA ne peux bien entendu pas produire. (Cuisinier, 2007). L'IA devrait donc compléter l'enseignant et non le remplacer. De plus nous agissons différemment quand on se sait observé (effet Hawthorne), ce qui rajoute une limite supplémentaire, qu’il convient de notifier. |
Ici on note donc que Claude ne fait pas directement usage de l'IA, mais qu'il finalise un article complet sur la base d'un plan complètement produit par IA et de références inventées. C'est un très bon cas de prolétarisation, on a une division des tâches et des responsabilités : Bob produit le plan puis Claude l'article sans connexion avec le travail de Bob.
Second article, étapes 3 et 4, la réponse d'Alice et Daniel (fait avec ChatGPT)
Alice et Daniel ont aussi à produire un second article, comme leur sujet est proche de celui de Bob et Claude, ils décident d'utiliser leurs ressources bibliographiques.
Ils injectent peut-être dans ChatGPT la fausse bibliographie inventée par ChatGPT (en pensant qu'elle est un authentique produit du travail de Bob et Claude) et ils demandent à ChatGPT un résumé des articles. Ou alors ils utilisent un prompt proche de celui utilisé initialement par Bob. Ils précisent certainement qu'ils souhaitent une perspective plus critique qu'enthousiaste (c'est le sens de leur article).
Toujours est-il qu'ils se retrouvent avec une seconde bibliographie hallucinée. Il y a une cohérence partielle avec la première, on retrouve presque les mêmes entrées... Mais les prénoms des auteurs changent, ainsi que le nom des articles et de certaines revues, un auteur disparaît. Doe est remobilisé autour des données personnelles, tandis que Miller est dans un cas mobilisé sur les algorithmes de recommandations, dans l'autre sur les inégalités de ressources dans les écoles.
Doe, J. (2022). Educational Spaces and Data Privacy: Rethinking Schools in the Age of AI. Journal of Educational Ethics. Miller, A. (2021). Equality in Education: Addressing Technological Disparities in the Classroom. International Review of Educational Technology. Smith, L., & Lee, R. (2021). Adapting Learning with Artificial Intelligence: Challenges and Opportunities. Advances in Educational Technologies. Tanaka, H. (2020). Administrative Efficiency through AI: An Educational Perspective. Asian Journal of School Management. Taylor, C. (2022). The Role of Teacher-Student Interaction in Non-Digital Classrooms. Educational Research and Practice. Helsinki Study. (2023). Human-Centered Education in the Digital Age: Case Studies from Finnish Schools. Nordic Journal of Pedagogical Innovation. |
Ce second binôme produit donc une seconde bibliographie sans se rendre compte que ce n'est pas la même que la première.
Une fois le nouveau plan obtenu, il procèdent comme précédemment en rédigeant manuellement sur cette base. Une dernière partie, rédigée par Alice, mobilise une source authentique de l'autre article ainsi que deux sources originales.
À la radio avec Alice, Bob, Claude, Daniel : « pro vs anti »
L'intervention radio est construite sur un dialogue autour d'études scientifiques orientées pour et contre. Chaque membre du groupe intervient à deux reprises. Ils remobilisent leur deux seconds articles comme base pour cela.
Claude
Claude mobilise des sources déjà identifiées et des sources originales dans ses deux interventions, qui semblent écrites à la main.
Bob
Bob utilise ChatGPT pour générer ses deux interventions. Les textes générés sont conformes à son article commun avec Claude et donc à la première version de la bibliographie.
Ainsi, J. Doe :
décrit l’utilisation de bracelets connectés en Chine pour mesurer la concentration des élèves, une pratique qui a suscité des inquiétudes concernant la sécurité et l’utilisation des données collectées |
tandis que Miller alerte sur les biais algorithmiques.
Daniel
Daniel mobilise un article réel pour sa première intervention, celui de Crozat (celui-ci existe bien, nous pouvons en témoigner). Notons que cet article traite d'un cas précédent d'usage frauduleux de ChatGPT dans le même cours WE01 un an auparavant. Daniel l'a-t-il lu ?
La deuxième intervention est générée par ChatGPT. Devant passer après Bob, qui défend une position « pro », il demande à ChatGPT de répondre à ce texte en nuançant ses propos.
Par exemple :
L'exemple de l'étude Helsinki Study de 2023 est pertinent, mais les initiatives locales ne suffisent pas à elles seules à assurer une généralisation des bonnes pratiques. |
On y retrouve des citations des faux articles :
Enfin, l'affirmation selon laquelle l'IA "ne remplacera pas l'enseignant" mérite également d'être nuancée. Smith et Lee rappellent que l'IA peut modifier de manière intrinsèque le rôle de l'enseignant, le faisant passer d'un "transmetteur de savoirs" à un "facilitateur d'apprentissages". |
Cette partie n'est plus cohérente avec les propos prêtés aux auteurs inventés, personne ne se rend compte que cela n'a plus de sens, même au sein de la fiction créée par ChatGPT.
Alice
Les deux parties d'Alice semblent rédigées partiellement à la main, exclusivement à partir de la seconde version de la bibliographie (correspondant donc à l'article qu'elle a rédigé avec Daniel). On note dans cette intervention l'apparition des prénoms des faux auteurs, ainsi « Doe, J. » devient « John Doe ». Peut-être ont-ils été demandés à ChatGPT pour correspondre à un format demandé en cours ?
On note aussi l'apparition de nouveaux arguments prêtés à certains auteurs inventés. Comme les articles n'existent pas, la seule façon d'étayer leur contenu avec de nouveaux arguments est d'interroger à nouveau ChatGPT.
Ainsi dans le premier article on lit :
L'éducation sans IA privilégie l'interaction directe entre enseignants et élèves, permettant un lien pédagogique plus fort, difficilement remplaçable par des technologies (Taylor, 2022) |
Et pour l'intervention radio, une nouvelle information apparaît :
Charlotte Taylor en 2022 ajoute que cela peut même appauvrir le processus d’apprentissage en rendant les enseignements moins inspirants et moins personnalisés. |
Il est probable que les étudiantes et étudiants ne travaillent pas du tout en groupe, ne se relisent pas les uns les autres. S'ils n'avaient pas utilisé ChatGPT ils auraient probablement été obligés de collaborer, certains travaux trop peu qualitatifs les auraient fait intervenir et auraient, sinon, fait intervenir l'enseignant.
Comme ChatGPT se base sur des vraies publications scientifiques, il y a probablement une ou plusieurs publications scientifiques derrière les hallucinations mobilisées, ce qui conduit a une cohérence entre ces deux usages successifs.
Mais cette cohérence n'est pas systématique, ainsi tandis que Smith et Lee traitaient, d'après le premier article, du gain d'accessibilité des ressources pédagogiques grâce aux IA, lors du second usage à la radio le sujet traité n'est plus le même.
Prenons l’exemple des générateurs de texte comme ChatGPT : ils offrent des réponses bien écrites, mais parfois peu fiables. Laura Smith et Rachel Lee, dans leur article publié en 2021 dans Advances in Educational Technologies, mettent en garde contre cette facilité, qui pourrait encourager les élèves à accepter des informations sans les remettre en question. |