Pour attraper les étudiants qui trichent avec ChatGPT, un professeur a préparé son propre cheval de Troie. et ça marche

Ce n’est un secret pour personne : l’intelligence artificielle est l’aide-mémoire parfaite. Il est vrai que l’IA est idéale pour apprendre des concepts que vous ne connaissez pas et préparer un examen, mais il est également vrai qu’elle affecte la façon dont vous apprenez, et pas vraiment bien. Maintenant, si vous voulez travailler moins, copier des devoirs ou résoudre des questions d'examen, c'est un jeu d'enfant.

Les devoirs sont une affaire délicate : conçus pour que les étudiants partent d'une base théorique enseignée en cours pour l'intérioriser, rechercher des sources extérieures et préparer un rapport devant organiser et synthétiser des concepts, c'est fini. Si vous voulez le faire moyennement vite et bien (ici cela dépend de votre expertise avec les invites) : vous demandez à ChatGPT, copiez, collez et travailler.

Dans ce scénario, les enseignants découvrent qu’envoyer des devoirs n’est plus utile. Mais tout comme les étudiants ont recours à la technologie pour faire des bêtises, leurs enseignants font de même. Comme? Insérer des instructions invisibles conçues pour attraper les malins.

Des instructions invisibles à l’œil humain mais pas à l’IA

L'histoire est racontée à la première personne par Will Teague, professeur adjoint d'université qui enseigne l'histoire depuis une décennie. Elle remonte à 2023 (rappelons que ChatGPT a été lancé en novembre 2022) lorsqu’elle a commencé à retrouver des livraisons réalisées entièrement ou partiellement avec l’IA. Selon lui, les outils anti-plagiat fonctionnaient autrefois contre le copier-coller de Wikipédia, mais ils échouent désormais plus qu'un fusil de chasse contre ChatGPT et autres.

Comme dans de nombreux cas il n’avait que des soupçons mais aucune preuve à laquelle se raccrocher, il a opté pour une solution artisanale : introduire dans les énoncés des blocs de texte invisibles à l’œil humain mais lisibles par une IA lorsque l’étudiant lui fournit l’énoncé complet. Ces messages cachés incorporaient une instruction supplémentaire donnée par le chant, comme l'adoption d'une lecture marxiste du livre analysé.

Et il donne un exemple : un projet de première année du livre « Gabriel's Rebellion », une œuvre qui raconte la tentative de rébellion des esclaves en 1800 aux États-Unis. Sur les 122 articles soumis, 33 avaient une approche marxiste. Après avoir invoqué l’honnêteté de ses étudiants, il a réussi à faire avouer à 14 autres étudiants avoir utilisé l’IA. Près de 40 % des étudiants avaient triché.

Comme si cela ne suffisait pas, certains étudiants identifiés comme coupables de tricherie ont expliqué qu'ils utilisaient simplement un style « trop correct », mais n'ont pas été en mesure de donner une explication à cette perspective marxiste. Préméditation et trahison.

Nous avons atteint le point où l’American Historical Association ne recommande pas d’interdire l’utilisation de l’IA, mais plutôt de former les étudiants à l’analyse critique des essais générés automatiquement. Mais Teague a des réserves : s'ils n'ont pas les bases pour le comprendre, comment vont-ils l'évaluer ? Le fait qu’il n’existe pas de réglementation spécifique généralisée rend cette question plus complexe à aborder, surtout lorsqu’il y a des étudiants qui n’ont pas le sentiment de tricher : ils considèrent que l’IA les aide à synthétiser et à écrire.

Après avoir découvert que 40 % de sa classe trichait avec l’IA, il leur a demandé de lire un essai critique sur l’IA. Sur les 47 personnes impliquées, 36 ont soumis cette deuxième mission et une seule a eu recours à l'IA, selon les recherches du professeur. Dans les livraisons, une réflexion qui donne matière à réflexion : il y a des étudiants qui ont peur de ne pas assez bien écrire sans l'IA.

Couverture | Shantanu Kumar sur Pexels

Newsletter

Rejoignez notre newsletter pour des astuces chaque semaine