Si la sortie publique du chatbot en grand langage basé sur l’intelligence artificielle, ChatGPT, a suscité beaucoup d’enthousiasme autour de la promesse de la technologie et de l’utilisation élargie de l’IA, elle a également semé une certaine anxiété quant à ce qu’est un programme qui peut produire un essai de niveau universitaire satisfactory en quelques secondes, ce qui signifie pour l’avenir de l’enseignement et de l’apprentissage. Naturellement, cette consternation a entraîné une prolifération de programmes de détection – d’efficacité variable – et une augmentation proportionnelle des accusations de tricherie. Mais que pensent les étudiants de tout cela ? Une recherche récemment publiée par Tim Gorichanaz, Ph.D. de l’Université Drexel, donne un premier aperçu de certaines des réactions des étudiants accusés d’utiliser ChatGPT pour tricher.
“Alors que le monde de l’enseignement supérieur s’efforce collectivement de comprendre et de développer les meilleures pratiques et politiques autour de l’utilisation d’outils comme ChatGPT, il est essentiel pour nous de comprendre comment la fascination, l’anxiété et la peur qui accompagnent l’adoption de toute nouvelle technologie éducative affectent également les étudiants. qui suivent leur propre processus pour trouver remark l’utiliser”, a déclaré Gorichanaz.
38 d’entre eux ont déclaré ne pas utiliser ChatGPT, mais des programmes de détection comme Turnitin ou GPTZero avaient néanmoins signalé leur devoir comme étant généré par l’IA. En conséquence, de nombreuses discussions ont pris la forme d’un argument juridique. Les étudiants ont demandé remark ils pouvaient présenter des preuves pour prouver qu’ils n’avaient pas triché. Certains commentateurs ont conseillé de continuer à nier avoir utilisé le programme parce que les détecteurs ne sont pas fiables.
“De nombreux étudiants ont exprimé leur inquiétude quant à la possibilité d’être accusés à tort par un détecteur d’IA”, a déclaré Gorichanaz. “Certaines conversations ont été très détaillées sur la manière dont les étudiants pouvaient collecter des preuves pour prouver qu’ils avaient rédigé un essai sans IA, notamment en suivant les variations préliminaires et en utilisant un logiciel d’enregistrement d’écran. D’autres ont suggéré d’exécuter un détecteur sur leur propre écriture jusqu’à ce qu’elle revienne sans être incorrectement. signalé.”
Un autre thème qui est ressorti des discussions était le rôle perçu des collèges et des universités comme « gardiens » de la réussite et, par conséquent, les enjeux élevés associés au fait d’être accusé à tort de tricherie. Cela a conduit à des questions sur l’état de préparation des établissements à la nouvelle technologie et à des inquiétudes quant au fait que les professeurs seraient trop dépendants des détecteurs d’IA, dont la précision reste douteuse.
“Les conversations en ligne sont passées de doutes spécifiques sur l’exactitude de la détection de l’IA et des politiques des universités concernant l’utilisation de l’IA générative, à une remise en query générale du rôle de l’enseignement supérieur dans la société et à la suggestion que la technologie rendra les établissements d’enseignement supérieur inutiles dans le monde. un avenir proche”, a déclaré Gorichanaz.
L’étude a également mis en évidence une érosion de la confiance entre les étudiants – et entre les étudiants et leurs professeurs – découlant de la notion par les étudiants d’être constamment soupçonnés de tricherie. Divers commentaires illustrent la dégradation de ces relations :
- “Je n’aurais jamais imaginé être accusé par lui, parmi tous mes professeurs.”
- “Bien sûr, elle fait in addition confiance à ce détecteur d’IA qu’à nous.”
- “Je sais que je n’ai certainement pas plagié, mais malheureusement, on ne peut pas toujours faire confiance aux autres.”
La technologie de l’IA générative a contraint les établissements d’enseignement supérieur à reconsidérer leurs pratiques d’évaluation pédagogique et leurs politiques en matière de tricherie. Selon l’étude, les étudiants se posent bon nombre des mêmes thoughts.
“Il y a eu des commentaires sur des incohérences politiques où les étudiants ont été punis pour avoir utilisé certains outils d’IA tels que ChatGPT mais encouragés à utiliser d’autres outils d’IA comme Grammarly. D’autres étudiants ont suggéré que l’utilisation de l’IA générative pour rédiger un article ne devrait pas être considérée comme du plagiat vehicle il s’agit d’un travail authentic. “, a déclaré Gorichanaz. “De nombreux étudiants sont parvenus à la même conclusion avec laquelle les universités sont aux prises : la nécessité d’intégrer la technologie de manière responsable et d’aller au-delà des dissertations pour l’évaluation des apprentissages.”
L’étude pourrait jouer un rôle critical en aidant les collèges et les universités à communiquer à leurs étudiants sur l’utilisation de la technologie de l’IA générative, suggère Gorichanaz.
“Bien qu’il s’agisse d’un échantillon relativement petit, ces résultats restent utiles pour comprendre ce que vivent les étudiants en ce moment”, a-t-il déclaré. « Être accusé à tort, ou constamment soupçonné, d’utiliser l’IA pour tricher peut être une expérience pénible pour les étudiants. Cela peut nuire à la confiance qui est si importante pour une expérience éducative de qualité. Les établissements doivent donc élaborer des politiques cohérentes et les communiquer clairement aux étudiants. et comprendre les limites de la technologie de détection.
Gorichanaz a noté que même les meilleurs détecteurs d’IA pourraient produire suffisamment de fake positifs pour que les professeurs accusent à tort des dizaines d’étudiants – ce qui est clairement inacceptable compte tenu des enjeux.
“Plutôt que d’essayer d’utiliser des détecteurs d’IA pour évaluer si ces évaluations sont authentiques, les instructeurs feraient peut-être mieux de concevoir différents sorts d’évaluations : celles qui mettent l’accent sur le processus plutôt que sur le produit ou des évaluations furthermore fréquentes et à moindres enjeux”, a-t-il écrit, en additionally de suggérer que les instructeurs pourraient ajouter des modules sur l’utilisation appropriée de la technologie d’IA générative, plutôt que d’interdire complètement son utilisation.
Bien que l’étude propose une analyse thématique, Gorichanaz suggère que des recherches futures pourraient élargir l’échantillon jusqu’à une taille statistiquement pertinente et l’extraire de resources autres que les discussions en anglais sur Reddit.