Nouvelles du Canada arabe

Nouvelles

Des chercheurs reconnaissent la difficulté de vérifier l'utilisation des outils d'intelligence artificielle pour effectuer les devoirs scolaires.

Des chercheurs reconnaissent la difficulté de vérifier l'utilisation des outils d'intelligence artificielle pour effectuer les devoirs scolaires.

By Mohamed nasar

Publié: février 4, 2024

Les chercheurs ont trouvé une preuve claire de l'utilisation des outils de génération de texte par intelligence artificielle dans plusieurs articles scientifiques au cours de la dernière année.

Cependant, en ce qui concerne l'usage éducatif illicite des chatbots alimentés par l'intelligence artificielle, nous n’avons peut-être vu que la partie émergée de l’iceberg.

Des auteurs ont été repérés publiant des travaux comprenant des références scientifiques qui semblent légitimes mais qui ont été entièrement inventées à l'aide de l'intelligence artificielle. D'autres ont même laissé des extraits de texte provenant de l'interface utilisateur de ChatGPT dans leurs travaux.

Une étude en mathématiques a été retirée après qu'il est apparu qu'elle incluait par inadvertance une phrase issue d'une interface d'intelligence artificielle, selon un article paru dans la revue Nature en septembre 2023.

L'utilisation d'outils de génération de texte soutenus par l'intelligence artificielle représente le plus grand casse-tête lorsqu'elle n'est pas annoncée de manière transparente. En d'autres termes, lorsque les services sont peut-être faux.

La question de savoir comment gérer la transition vers la génération de texte par intelligence artificielle dans les universités est discutée depuis l'apparition de ChatGPT fin 2022.

Malgré le battage mondial autour de la capacité de l'intelligence artificielle à résumer les informations et à rédiger des textes avec un niveau linguistique imitant la langue humaine, les experts estiment que les programmes similaires à ChatGPT de Microsoft et Bard de Google sont encore très loin de l'intelligence humaine.

De nombreux enseignants placent leurs espoirs dans des programmes prétendant pouvoir détecter les textes générés par intelligence artificielle. Cela signifie-t-il la fin de la triche ?

Un expert répond : « Pas du tout ».

Déborah Weber-Wolf de l'université HTW des sciences appliquées à Berlin déclare : « L'espoir d'une solution logicielle simple pour détecter les textes modifiés par l'intelligence artificielle ne deviendra pas réalité ».

Elle ajoute : « Il existe beaucoup de programmes qui prétendent leurs capacités de détection, mais ils ne font pas ce qu’ils sont censés faire ». Elle précise : « Certaines entreprises productrices de ces programmes ont déjà reconnu leurs lacunes ».

Weber-Wolf a participé à une étude dans laquelle 14 programmes de détection des textes modifiés par intelligence artificielle ont été testés. Selon l'étude, ces programmes n'ont pas fourni de résultats fiables lorsqu’il s’agit de déterminer si l'auteur du texte était humain ou machine.

L'équipe de recherche a publié ses résultats fin décembre dernier dans la revue International Journal of Educational Integrity.

Weber-Wolf a expliqué que « dans certains cas ambigus, les systèmes ont tendance à supposer que l’auteur du texte est humain ». Elle ajoute : « Et cela bien sûr parce que les gens ne veulent pas être accusés à tort. Ce serait une catastrophe pour le système éducatif ».

Toutefois, l'étude a souligné que le problème principal est qu'environ un texte sur cinq modifiés par intelligence artificielle n'a pas été détecté. Selon l'étude, le taux de non-détection augmente lorsque les humains relisent le texte modifié par intelligence artificielle.

De plus, il n'est pas facile de traduire les résultats concernant ces programmes pour l'utilisateur ordinaire : certains indiquent une probabilité en pourcentage que le texte ait été modifié par un programme d’intelligence artificielle.

Il est à noter qu'il n'existe pas de preuve solide, ce qui signifie que les universités peuvent avoir du mal à prouver une mauvaise conduite sur cette base. Weber-Wolf souligne : « Contrairement au plagiat, il est impossible de comparer le texte à l'original ».

Elle déclare avoir été informée d’un cas suspecté par des enseignants d'utilisation d’intelligence artificielle, et les étudiants ont en effet admis l’avoir utilisée. Elle signale également que les chatbots sont largement utilisés — souvent sans que les étudiants sachent qu’ils commettent une erreur.

Weber-Wolf explique : « Nous devons réfléchir attentivement à la manière d’évaluer les performances », ce qui pourrait signifier que les tâches futures doivent être conçues de manière entièrement différente de ce qui se faisait auparavant.

Elle affirme qu'il faut encourager les étudiants à identifier les erreurs dans les réponses des outils d’intelligence artificielle comme partie intégrante de la tâche.

Enfin, Weber-Wolf souligne que tous les chatbots alimentés par intelligence artificielle ne sont rien d'autre que des perroquets, puisqu'ils répètent seulement ce qu'ils entendent. Il est donc important d'enseigner aux étudiants les normes d'écriture académique, comme le but des notes de bas de page.

Et en cas d'utilisation de systèmes d'intelligence artificielle, ils doivent être utilisés de manière transparente. Weber-Wolf précise : « On doit prendre l'entière responsabilité des déchets produits par ces systèmes. Il n’y a aucune excuse ».

Commentaires

En rapport

Météo

Aujourd'hui

jeudi, 17 juillet 2025

Chargement...
icon --°C

--°C

--°C

  • --%
  • -- kmh
  • --%