
OpenAI a annoncé ChatGPT Plus, un forfait mensuel de 20 $ qui vous donne un accès prioritaire au chatbot AI, même pendant les heures de pointe où les utilisateurs gratuits devraient attendre. La société affirme également que le plan vous donnera « des temps de réponse plus rapides » et « un accès prioritaire aux nouvelles fonctionnalités et améliorations ».
OpenAI dit qu'il enverra des invitations pour le service aux personnes qui se trouvent aux États-Unis et sur sa liste d'attente « au cours des prochaines semaines » et qu'il étendra le déploiement à d'autres pays et régions à l'avenir.

Cela pourrait également établir une norme pour les prochains chatbots d'IA payants, qui arriveront presque certainement sur le marché. Étant donné qu'OpenAI est un précurseur dans le domaine, quiconque essaie de publier un bot qui coûte plus de 20 $ par mois devra vraiment expliquer pourquoi le sien vaut ce prix par rapport à ChatGPT Plus.
ChatGPT ne devient pas un outil uniquement payant. OpenAI assure qu'il continuera à en offrir un accès gratuit et que les utilisateurs payants « aideront à soutenir la disponibilité de l'accès gratuit au plus grand nombre de personnes possible ».
Pour endiguer la polémique, OpenAI lance un outil supposer détecter le texte généré par IA
L'utilisation de l'IA pour écrire des choses comme des articles ou des essais qui ont été assignés comme devoirs peut être controversée. OpenAI semble définitivement s'en rendre compte, car il a publié un outil gratuit destiné à détecter le texte généré plus tôt cette semaine, bien que son efficacité soit discutable à ce stade.
Ses performances varient en fonction de la similitude entre le texte analysé et les types d'écrits sur lesquels ChatGPT a été entraîné.
En d’autres termes, l’outil n’est pas infaillible et il ne faudrait pas compter dessus sur le long terme comme prévient Sam Altman CEO d’OpenAI dans une précédente sortie : « Nous allons essayer de faire certaines choses à court terme. Il y a peut-être des moyens d'aider les enseignants à être un peu plus susceptibles de détecter la sortie d'un système de type GPT, mais une personne déterminée les contournera et je ne pense pas que ce soit quelque chose sur lequel la société puisse ou doive compter à long terme. »
Il propose une échelle de résultats en cinq points : très peu probable d'avoir été généré par l'IA, peu probable, peu clair, possible ou probable. Il fonctionne mieux sur des échantillons de texte de plus de 1000 mots en anglais, les performances étant nettement moins bonnes dans les autres langues. Et il ne permet pas de distinguer le code informatique écrit par des humains de celui généré par une intelligence artificielle.
La publication de cet outil intervient après que des écoles faisant partie du Département de l'éducation de la ville de New York et du système scolaire public de Seattle ou encore SciencesPo en France ont interdit aux élèves et aux enseignants d'utiliser ChatGPT pour empêcher le plagiat et la tricherie. Le professeur Arvind Narayanan de l’université de Princeton est pourtant d’avis qu’il n’y a pas matière à paniquer car c’est de « la poudre de perlimpinpin. »
« Sayash Kapoor et moi-même l'appelons un générateur de conneries, comme d'autres l'ont aussi fait. Nous n'entendons pas cela dans un sens normatif mais dans un sens relativement précis. Nous voulons dire qu'il est entraîné à produire des textes plausibles. Il est très bon pour être persuasif, mais il n'est pas entraîné à produire des déclarations vraies. Il produit souvent des affirmations vraies comme effet secondaire de sa plausibilité et de sa persuasion, mais ce n'est pas son objectif.
Cela correspond en fait à ce que le philosophe Harry Frankfurt a appelé connerie, c'est-à-dire un discours destiné à persuader sans se soucier de la vérité. Un conteur humain ne se soucie pas de savoir si ce qu'il dit est vrai ou non ; il a certaines fins en tête. Tant qu'il persuade, ces objectifs sont atteints. En fait, c'est ce que fait ChatGPT. Il essaie d'être persuasif et il n'a aucun moyen de savoir avec certitude si les déclarations qu'il fait sont vraies ou non », déclare-t-il.
Arvind Narayanan se veut donc clair : ChatGPT reste un outil dont il faut faire usage avec prudence. C’est la raison pour laquelle certains enseignants optent déjà pour des politiques d’utilisation ouvertes de ce chatbot à l’intention de leurs étudiants.
Ethan Mollick de l’université de Pennsylvannie en fait partie. Sa décision d’opter pour une politique d’utilisation ouverte du chatbot ChatGPT s’appuie sur le fait que l'utilisation de l'intelligence artificielle est une compétence émergente. Il précise néanmoins au travers de cette dernière que l’intelligence artificielle peut se tromper. Les étudiants doivent donc vérifier les résultats qu’elle leur renvoie à l’aide d’autres et qu'ils seront responsables de toute erreur ou omission fournie par l'outil. De plus, les étudiants doivent faire preuve d’honnêteté intellectuelle en citant leur source (qui s’avère être ChatGPT) comme on le fait lors du montage d’une bibliographie. « Le manquement à cette obligation constitue une violation des politiques d'honnêteté académique », lit-on.
Un « étudiant » aux performances médiocres
ChatGPT ne peut pas encore surpasser la plupart des étudiants en droit aux examens, selon de nouvelles recherches, mais il peut obtenir une note de passage. Un quatuor de professeurs de droit de l'Université du Minnesota a utilisé le populaire chatbot d'intelligence artificielle pour générer des réponses aux examens de quatre cours le semestre dernier, puis les a notés à l'aveugle aux côtés des tests des étudiants réels.
Jonathan Choi, professeur à la faculté de droit de l'Université du Minnesota, a soumis à ChatGPT au même test auquel les étudiants étaient confrontés, composé de 95 questions à choix multiples et de 12 questions à développement. Dans un livre blanc intitulé « ChatGPT va à la faculté de droit » publié lundi, lui et ses coauteurs ont rapporté que le bot avait obtenu un C+ dans l'ensemble, en dessous de la moyenne B+ des humains.
« Seul, ChatGPT serait un étudiant en droit plutôt médiocre », a déclaré l'auteur principal de l'étude, Jonathan Choi, qui a collaboré avec les professeurs Kristin Hickman, Amy Monahan et Daniel Schwarcz. « Le plus grand potentiel pour la profession ici est qu'un avocat puisse utiliser ChatGPT pour produire une première ébauche et simplement rendre sa pratique beaucoup plus efficace », a-t-il déclaré.
Choi a déclaré que lui et de nombreux collègues avaient désormais interdit l'utilisation d'Internet pendant les examens en classe pour éliminer la possibilité de tricher avec ChatGPT, bien que les futurs examens puissent tester leur capacité à tirer efficacement parti des programmes d'intelligence artificielle.
Il y a eu plusieurs points positifs.
Par exemple ChatGPT a fait un bon travail en résumant avec précision les doctrines juridiques appropriées et en citant correctement les faits et les conclusions de cas spécifiques. Dans de nombreux cas, il a pu se concentrer sur les doctrines juridiques pertinentes sans incitation spécifique par la question. Par exemple, en réponse à un essai sur le droit de la responsabilité délictuelle impliquant un propriétaire qui a érigé une décoration d'Halloween dangereuse qui a blessé une personne participant à l'évènement [des bonbons ou un sort ?], il a non seulement précisé les éléments familiers de la négligence (devoir, violation, causalité et dommages), mais aussi a correctement spécifié que le propriétaire - qu'il a identifié par son nom - « a l'obligation légale de maintenir sa propriété dans un état raisonnablement sûr pour ceux qui sont invités ou autorisés à se trouver sur la propriété ».
ChatGPT a tout[/des bonbons ou un sort ?]...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.