banner

Nouvelles

Sep 02, 2023

10 façons GPT

Publicité

Supporté par

OpenAI a mis à niveau la technologie qui alimente son chatbot en ligne de manière notable. C'est plus précis, mais ça invente quand même les choses.

Par Cade Metz et Keith Collins

Cade Metz a demandé à des experts d'utiliser GPT-4, et Keith Collins a visualisé les réponses générées par l'intelligence artificielle.

Une nouvelle version de la technologie qui alimente un chatbot IA qui a captivé l'industrie technologique il y a quatre mois a amélioré son prédécesseur. C'est un expert sur un éventail de sujets, épatant même les médecins avec ses conseils médicaux. Il peut décrire des images, et il est proche de raconter des blagues presque drôles.

Mais le nouveau système d'intelligence artificielle dont on parle depuis longtemps, GPT-4, a encore quelques-unes des bizarreries et fait certaines des mêmes erreurs habituelles qui ont déconcerté les chercheurs lorsque ce chatbot, ChatGPT, a été introduit.

Et même s'il s'agit d'un très bon testeur, le système - de la start-up OpenAI de San Francisco - n'est pas sur le point d'égaler l'intelligence humaine. Voici un bref guide de GPT-4 :

Lorsque Chris Nicholson, un expert en IA et partenaire de la société de capital-risque Page One Ventures, a utilisé GPT-4 un après-midi récent, il a dit au bot qu'il était anglophone et qu'il ne connaissait pas l'espagnol.

Il a demandé un programme qui pourrait lui apprendre les bases, et le bot en a fourni un qui était détaillé et bien organisé. Il a même fourni un large éventail de techniques pour apprendre et mémoriser des mots espagnols (bien que toutes ses suggestions n'aient pas atteint leur but).

Remarque : Dans cet exemple, seule la première partie d'une réponse plus longue est affichée.

M. Nicholson a demandé une aide similaire de la version précédente de ChatGPT, qui s'appuyait sur GPT-3.5. Il a également fourni un programme, mais ses suggestions étaient plus générales et moins utiles.

"Il a franchi la barrière de la précision", a déclaré M. Nicholson. "Il s'agit d'inclure plus de faits, et ils ont très souvent raison."

Quand Oren Etzioni, chercheur et professeur en intelligence artificielle, a essayé le nouveau bot pour la première fois, il a posé une question simple : "Quelle est la relation entre Oren Etzioni et Eli Etzioni ?" Le bot a répondu correctement.

La version précédente de la réponse de ChatGPT à cette question était toujours fausse. Bien faire les choses indique que le nouveau chatbot a un éventail de connaissances plus large.

Mais il fait encore des erreurs.

Le bot a poursuivi en disant: "Oren Etzioni est un informaticien et le PDG de l'Allen Institute for Artificial Intelligence (AI2), tandis qu'Eli Etzioni est un entrepreneur." La plupart de ces informations sont exactes, mais le robot - dont la formation s'est terminée en août - ne s'est pas rendu compte que le Dr Etzioni avait récemment démissionné de son poste de directeur général de l'Institut Allen.

GPT-4 a une nouvelle capacité à répondre aux images ainsi qu'au texte. Greg Brockman, président et co-fondateur d'OpenAI, a démontré comment le système pouvait décrire une image du télescope spatial Hubble avec des détails minutieux. La description a duré des paragraphes.

Il peut également répondre à des questions sur une image. Si on lui donne une photo de l'intérieur d'un réfrigérateur, cela peut suggérer quelques repas à préparer à partir de ce qu'il y a sous la main.

OpenAI n'a pas encore rendu publique cette partie de la technologie, mais une société appelée Be My Eyes utilise déjà GPT-4 pour créer des services qui pourraient donner une idée plus détaillée des images rencontrées sur Internet ou prises dans le monde réel. .

Lors d'une soirée récente, Anil Gehi, professeur agrégé de médecine et cardiologue à l'Université de Caroline du Nord à Chapel Hill, a décrit au chatbot les antécédents médicaux d'un patient qu'il avait vu la veille, y compris les complications que le patient a subies après être admis à l'hôpital. La description contenait plusieurs termes médicaux que les profanes ne reconnaîtraient pas.

Lorsque le Dr Gehi a demandé comment il aurait dû traiter le patient, le chatbot lui a donné la réponse parfaite. "C'est exactement ainsi que nous avons traité le patient", a-t-il déclaré.

Lorsqu'il a essayé d'autres scénarios, le bot a donné des réponses tout aussi impressionnantes.

Il est peu probable que ces connaissances soient affichées à chaque fois que le bot est utilisé. Il a encore besoin d'experts comme le Dr Gehi pour juger de ses réponses et effectuer les procédures médicales. Mais il peut présenter ce type d'expertise dans de nombreux domaines, de la programmation informatique à la comptabilité.

Lorsqu'il est fourni avec un article du New York Times, le nouveau chatbot peut donner un résumé précis et précis de l'histoire presque à chaque fois. Si vous ajoutez une phrase aléatoire au résumé et demandez au bot si le résumé est inexact, il pointera vers la phrase ajoutée.

Le Dr Etzioni a dit que c'était une compétence remarquable. "Pour faire un résumé de haute qualité et une comparaison de haute qualité, il doit avoir un niveau de compréhension d'un texte et une capacité à articuler cette compréhension", a-t-il déclaré. "C'est une forme avancée d'intelligence."

Le Dr Etzioni a demandé au nouveau bot "une nouvelle blague sur la chanteuse Madonna". La réponse l'impressionna. Cela le faisait aussi rire. Si vous connaissez les plus grands succès de Madonna, cela pourrait aussi vous impressionner.

Le nouveau bot avait encore du mal à écrire autre chose que des "blagues de papa". Mais c'était légèrement plus drôle que son prédécesseur.

Dr A.S. Etzioni a donné un puzzle au nouveau bateau.

Le système semblait répondre de manière appropriée. Mais la réponse ne tenait pas compte de la hauteur de la porte, qui pourrait également empêcher un char ou une voiture de passer.

Le directeur général d'OpenAI, Sam Altman, a déclaré que le nouveau bot pourrait raisonner "un peu". Mais ses capacités de raisonnement s'effondrent dans de nombreuses situations. La version précédente de ChatGPT traitait un peu mieux la question car elle reconnaissait que la hauteur et la largeur étaient importantes.

OpenAI a déclaré que le nouveau système pourrait se classer parmi les 10 % d'étudiants les mieux classés à l'examen uniforme du barreau, qui qualifie les avocats de 41 États et territoires. Il peut également obtenir 1 300 (sur 1 600) au SAT et cinq (sur cinq) aux examens du lycée Advanced Placement en biologie, calcul, macroéconomie, psychologie, statistiques et histoire, selon les tests de l'entreprise.

Les versions précédentes de la technologie ont échoué à l'examen du barreau uniforme et n'ont pas obtenu un score aussi élevé à la plupart des tests de niveau avancé.

Un après-midi récent, pour démontrer ses compétences en matière de test, M. Brockman a soumis au nouveau bot une question d'examen du barreau de plusieurs paragraphes sur un homme qui dirige une entreprise de réparation de camions diesel.

La réponse était correcte mais remplie de jargon juridique. Alors M. Brockman a demandé au bot d'expliquer la réponse dans un anglais simple pour un profane. Il l'a fait aussi.

Bien que le nouveau bot ait semblé raisonner sur des choses qui se sont déjà produites, il était moins habile lorsqu'on lui a demandé de formuler des hypothèses sur l'avenir. Il semblait s'inspirer de ce que les autres avaient dit au lieu de créer de nouvelles suppositions.

Lorsque le Dr Etzioni a demandé au nouveau bot : "Quels sont les problèmes importants à résoudre dans la recherche en PNL au cours de la prochaine décennie ?" - faisant référence au type de recherche sur le "traitement du langage naturel" qui conduit au développement de systèmes comme ChatGPT - il ne pouvait pas formuler d'idées entièrement nouvelles.

Le nouveau bot invente encore des trucs. Appelé "hallucination", le problème hante tous les principaux chatbots. Étant donné que les systèmes ne comprennent pas ce qui est vrai et ce qui ne l'est pas, ils peuvent générer un texte complètement faux.

Lorsqu'on lui a demandé les adresses de sites Web décrivant les dernières recherches sur le cancer, il a parfois généré des adresses Internet qui n'existaient pas.

Cade Metz est journaliste technologique et auteur de "Genius Makers : The Mavericks Who Bring AI to Google, Facebook, and The World". Il couvre l'intelligence artificielle, les voitures sans conducteur, la robotique, la réalité virtuelle et d'autres domaines émergents. @cademetz

Keith Collins est journaliste et éditeur graphique. Il se spécialise dans la narration visuelle et couvre une gamme de sujets, en mettant l'accent sur la politique et la technologie. Il est titulaire d'une maîtrise de la Graduate School of Journalism de l'Université de Columbia. @collinskeith

Publicité

sont frères sont père et fils Cependant, la hauteur et la longueur des objets pourraient potentiellement être un facteur limitant si la porte a une hauteur ou une longueur finie.
PARTAGER