banner

Blog

Sep 19, 2023

ChatGPT pourrait transformer le milieu universitaire. Mais ce n'est pas encore un étudiant A+ : NPR

Emma Bowman

Entrez une invite dans ChatGPT, et il devient votre propre assistant virtuel. OpenAI/Capture d'écran par NPR masquer la légende

Entrez une invite dans ChatGPT, et il devient votre propre assistant virtuel.

Pourquoi faire vos devoirs quand un chatbot peut le faire pour vous ? Un nouvel outil d'intelligence artificielle appelé ChatGPT a enthousiasmé Internet avec ses capacités surhumaines pour résoudre des problèmes mathématiques, rédiger des essais universitaires et rédiger des articles de recherche.

Après que le développeur OpenAI a rendu public le système textuel le mois dernier, certains éducateurs ont tiré la sonnette d'alarme sur le potentiel de ces systèmes d'IA à transformer le milieu universitaire, pour le meilleur et pour le pire.

"L'IA a fondamentalement gâché les devoirs", a déclaré Ethan Mollick, professeur à la Wharton School of Business de l'Université de Pennsylvanie, sur Twitter.

L'outil a été un succès instantané parmi nombre de ses étudiants, a-t-il déclaré à NPR dans une interview sur Morning Edition, son utilisation la plus évidente étant un moyen de tricher en plagiant le travail écrit par l'IA, a-t-il déclaré.

Mis à part la fraude scolaire, Mollick voit également ses avantages en tant que compagnon d'apprentissage.

Il l'a utilisé comme assistant de son propre professeur, pour l'aider à élaborer un programme, une conférence, un devoir et une rubrique de notation pour les étudiants du MBA.

"Vous pouvez coller des documents académiques entiers et lui demander de le résumer. Vous pouvez lui demander de trouver une erreur dans votre code, de le corriger et de vous dire pourquoi vous vous êtes trompé", a-t-il déclaré. "C'est ce multiplicateur de capacités, que je pense que nous ne comprenons pas tout à fait, qui est absolument stupéfiant", a-t-il déclaré.

Mais l'assistant virtuel surhumain - comme toute technologie d'intelligence artificielle émergente - a ses limites. ChatGPT a été créé par des humains, après tout. OpenAI a formé l'outil à l'aide d'un grand ensemble de données de conversations humaines réelles.

"La meilleure façon d'y penser est de discuter avec un stagiaire omniscient, désireux de plaire, qui vous ment parfois", a déclaré Mollick.

Cela repose aussi sur la confiance. Malgré son ton autoritaire, il y a eu des cas où ChatGPT ne vous dira pas quand il n'a pas la réponse.

C'est ce que Teresa Kubacka, une scientifique des données basée à Zurich, en Suisse, a découvert lorsqu'elle a expérimenté le modèle de langage. Kubacka, qui a étudié la physique pour son doctorat, a testé l'outil en l'interrogeant sur un phénomène physique inventé.

"Je lui ai délibérément posé des questions sur quelque chose dont je pensais ne pas exister afin qu'ils puissent juger si cela a aussi la notion de ce qui existe et de ce qui n'existe pas", a-t-elle déclaré.

ChatGPT a produit une réponse si spécifique et plausible, étayée par des citations, a-t-elle dit, qu'elle a dû enquêter pour savoir si le faux phénomène, "un électromagnon inversé cycloïdal", était réellement réel.

Quand elle a regardé de plus près, le matériel source présumé était également faux, a-t-elle déclaré. Il y avait des noms d'experts en physique bien connus sur la liste - les titres des publications dont ils étaient censés être les auteurs, cependant, étaient inexistants, a-t-elle déclaré.

"C'est là que ça devient un peu dangereux", a déclaré Kubacka. "Le moment où vous ne pouvez pas faire confiance aux références, cela érode également en quelque sorte la confiance en citant la science quelle qu'elle soit", a-t-elle déclaré.

Les scientifiques appellent ces fausses générations des "hallucinations".

"Il y a encore de nombreux cas où vous lui posez une question et cela vous donnera une réponse très impressionnante qui est tout simplement fausse", a déclaré Oren Etzioni, le PDG fondateur de l'Allen Institute for AI, qui a dirigé la recherche à but non lucratif jusqu'à récemment. "Et, bien sûr, c'est un problème si vous ne vérifiez pas ou ne corroborez pas soigneusement ses faits."

Les utilisateurs qui expérimentent le chatbot sont avertis avant de tester l'outil que ChatGPT "peut occasionnellement générer des informations incorrectes ou trompeuses". OpenAI/Capture d'écran par NPR masquer la légende

Les utilisateurs expérimentant l'aperçu gratuit du chatbot sont avertis avant de tester l'outil que ChatGPT "peut occasionnellement générer des informations incorrectes ou trompeuses", des instructions préjudiciables ou des contenus biaisés.

Sam Altman, PDG d'OpenAI, a déclaré plus tôt ce mois-ci que ce serait une erreur de s'appuyer sur l'outil pour tout ce qui est "important" dans son itération actuelle. "C'est un aperçu du progrès", a-t-il tweeté.

Les défaillances d'un autre modèle de langage d'IA dévoilé par Meta le mois dernier ont conduit à son arrêt. La société a retiré sa démo pour Galactica, un outil conçu pour aider les scientifiques, trois jours seulement après avoir encouragé le public à le tester, à la suite de critiques selon lesquelles il aurait craché du texte biaisé et absurde.

De même, Etzioni dit que ChatGPT ne produit pas de bonnes données scientifiques. Malgré tous ses défauts, cependant, il considère les débuts publics de ChatGPT comme un point positif. Il voit cela comme un moment d'examen par les pairs.

"ChatGPT n'a que quelques jours, j'aime à le dire", a déclaré Etzioni, qui reste à l'IA Institute en tant que membre du conseil d'administration et conseiller. C'est "nous donner une chance de comprendre ce qu'il peut et ne peut pas faire et de commencer sérieusement la conversation de 'Qu'allons-nous faire à ce sujet?' "

L'alternative, qu'il décrit comme "la sécurité par l'obscurité", n'aidera pas à améliorer l'IA faillible, a-t-il déclaré. "Et si nous cachons les problèmes ? Est-ce que ce sera une recette pour les résoudre ? En règle générale - pas dans le monde des logiciels - cela n'a pas fonctionné."

PARTAGER