L'évolution en économie
ChatGPT-3.5 n'a pas compris la théorie de base
Écrivant dans un article de blog en janvier, Caplan a déclaré qu'il avait fait passer à ChatGPT l'examen de mi-parcours d'automne. Caplan a déclaré que ses questions d'examen testaient la compréhension des étudiants en économie plutôt que de leur faire régurgiter des manuels ou de compléter ce qui est essentiellement des exercices de mémoire.
C'est ici que l'ancienne version de ChatGPT a flanché. Le bot a obtenu 31 sur 100 possibles à son test, ce qui équivaut à un D et bien en dessous de sa médiane de 50%.
Caplan a déclaré que le bot n'avait pas compris les concepts de base, tels que le principe de l'avantage comparatif et absolu. Ses réponses étaient également plus politiques qu'économiques, a-t-il dit. « ChatGPT fait un excellent travail en imitant un étudiant en économie GMU très faible », a écrit Caplan dans son article de blog de janvier.
Envoyé par Caplan
Puis vient GPT-4
Caplan aime parier. Il a déjà placé 23 paris publics et les a tous remportés. Ils sont généralement pour des sommes modestes d'environ 100 $, et souvent sur des sujets techniques comme les taux de chômage prévus et les lectures d'inflation. Il a également remporté de justesse un pari de 2008 selon lequel aucun État membre ne quitterait l'Union européenne avant 2020 (le Royaume-Uni est parti en janvier de la même année).
Les réponses de ChatGPT l'ont tellement déçu que Caplan a parié qu'un modèle d'IA n'obtiendrait pas un A à six de ses sept examens avant 2029.
Mais lorsque ChatGPT-4 a fait ses débuts, ses progrès ont stupéfié Caplan. Il a obtenu 73% sur le même test de mi-session, équivalent à un A et parmi les meilleurs scores de sa classe.
Envoyé par Caplan
Pour Caplan, les améliorations étaient évidentes. Le bot a donné des réponses claires à ses questions, comprenant les principes avec lesquels il se débattait auparavant. Il a également obtenu des notes parfaites en expliquant et en évaluant les concepts défendus par des économistes comme Paul Krugman.
« La seule chose que je peux dire, c'est que ça semble beaucoup mieux », a déclaré Caplan.
Caplan pensait que les données de formation de ChatGPT auraient pu reprendre son précédent article de blog où il expliquait ses réponses, mais ses collègues lui ont dit que c'était hautement improbable. Il a ajouté qu'il avait déjà nourri le bot avec de nouveaux tests qu'il n'avait jamais vus auparavant, où il avait fait encore mieux que sa note précédente de 73 %. « J'étais très suffisant dans mon jugement, et je ne le suis plus », a déclaré Caplan.
Intrigué, son ami lui fait passer un test en informatique quantique
Ci-dessous, un extrait de son billet.
Comme je l'ai déjà mentionné, l'économiste, blogueur et ami Bryan Caplan n'a pas été impressionné lorsque ChatGPT n'a obtenu qu'un D à son examen de mi-parcours sur l'économie du travail. Ainsi, sur le blog de Bryan, nommé à juste titre "Bet On It", il a fait un pari public qu'aucune IA n'obtiendrait un A à son examen avant le 30 janvier 2029. GPT-4 a ensuite obtenu un A à peine trois mois plus tard (!!! ), ce qui a conduit Bryan a reconnaître que ce sera probablement l'un des premiers paris publics qu'il devra concéder (il n'a pas encore concédé « officiellement », mais uniquement à cause de détails techniques dans la façon dont le pari a été structuré). Bryan a maintenant rejoint les rangs des partisans du GPT, écrivant
Envoyé par Caplan
Envoyé par Caplan
À la recherche d'une réponse à cette question de suivi cruciale et évidente, j'ai demandé au GPT-4 de passer l'examen final 2019 d'Introduction à la science de l'informatique quantique, mon cours de premier cycle spécialisé à l'UT Austin. J'ai demandé à Justin Yirka, mon doctorant et TA [ndlr. Teaching Assistant] à plusieurs reprises, de noter l'examen comme il le ferait pour n'importe qui d'autre. Ce poste est un effort conjoint de lui et moi.
Nous avons donné les problèmes à GPT-4 via leur code source LaTeX, que GPT-4 peut parfaitement comprendre. Lorsqu'il y avait des circuits quantiques, soit dans l'entrée, soit dans la sortie souhaitée, nous les avons traités soit en utilisant le package qcircuit, que GPT-4 comprend à nouveau, soit en lui demandant simplement de produire une description en anglais du circuit. Nous avons décidé de fournir les questions et réponses ici via la même source LaTeX que GPT-4 a vue.
Au meilleur de ma connaissance - et j'ai revérifié - cet examen n'a jamais été publié auparavant sur l'Internet public et n'aurait pas pu apparaître dans les données de formation de GPT-4.
Le résultat: GPT-4 a obtenu 69/100. (En raison des crédits supplémentaires, le score maximum à l'examen était de 120, bien que le score le plus élevé qu'un étudiant ait réellement obtenu était de 108.) À titre de comparaison, la moyenne parmi les étudiants était de 74,4 mais avec un fort effet de sélection (beaucoup d'étudiants en difficulté avaient alors abandonné le cours !). Bien qu'il n'y ait pas de correspondance formelle entre les notes des examens finaux et les notes alphabétiques (ces dernières dépendant également d'autres éléments), les performances de GPT-4 correspondraient à un B.
(Remarque: j'ai dit hier que son score était de 73, mais des commentateurs ont attiré mon attention sur le fait que GPT avait reçu des points pour une mauvaise réponse sur 2 (a), une matrice de densité qui n'était même pas normalisée.)
En général, je dirais que GPT-4 était le plus fort sur les questions vrai/faux et (ironiquement !) sur les questions conceptuelles, celles où de nombreux étudiants ont le plus eu de difficultés. Il était (encore une fois ironiquement !) le plus faible sur les questions de calcul, où il savait souvent quel type de calcul faire mais bâclait ensuite l'exécution. Nous n'avons pas essayé la nouvelle interface de WolframAlpha, qui pourrait améliorer ses performances sur ces questions. Nous serions heureux que quelqu'un d'autre essaie cela.
Il faut également se rappeler que les étudiants venaient de suivre le cours, y compris des ensembles de problèmes hebdomadaires, profitaient de sessions de répétitions, des heures de bureau, de la pratique, tout en bénéficiant d'une expérience récente des types de problèmes auxquels s'attendre. En revanche, GPT-4 « avançait à l'aveuglette », en dehors du fait qu'il avait aspiré tout l'Internet public, y compris vraisemblablement les devoirs et les examens d'informatique quantique d'autres personnes ! Il est plausible qu'un réglage fin ou des incitations à quelques prises de vue avec mes autres examens ou notes de cours amélioreraient les performances de GPT-4 ; nous n'avons pas essayé cela.
Source : Shtetl-Optimized
Et vous ?
Quelle lecture en faites-vous ?
Qu'est-ce qui pourrait, selon vous, expliquer pourquoi GPT-4 avait du mal sur les questions de calcul ?
Sur la base de ses réponses, la compréhension du sujet par GPT-4 est-elle cohérente (c'est-à-dire qu'il n'oublie pas au hasard quelque chose dans une question qu'il semblait comprendre dans une question précédente) ? Ses malentendus/angles morts (sans référence à Cédric Doumbé bien sûr) sont-ils également cohérents ?
Trouvez-vous des différences notables entre ChatGPT-4 et son prédécesseur ?