OpenAI a annoncé ChatGPT Plus, un forfait mensuel de 20 $ qui vous donne un accès prioritaire au chatbot AI, même pendant les heures de pointe où les utilisateurs gratuits devraient attendre. La société affirme également que le plan vous donnera « des temps de réponse plus rapides » et « un accès prioritaire aux nouvelles fonctionnalités et améliorations ».
OpenAI dit qu'il enverra des invitations pour le service aux personnes qui se trouvent aux États-Unis et sur sa liste d'attente « au cours des prochaines semaines » et qu'il étendra le déploiement à d'autres pays et régions à l'avenir.
Envoyé par OpenAI
Cela pourrait également établir une norme pour les prochains chatbots d'IA payants, qui arriveront presque certainement sur le marché. Étant donné qu'OpenAI est un précurseur dans le domaine, quiconque essaie de publier un bot qui coûte plus de 20 $ par mois devra vraiment expliquer pourquoi le sien vaut ce prix par rapport à ChatGPT Plus.
ChatGPT ne devient pas un outil uniquement payant. OpenAI assure qu'il continuera à en offrir un accès gratuit et que les utilisateurs payants « aideront à soutenir la disponibilité de l'accès gratuit au plus grand nombre de personnes possible ».
Pour endiguer la polémique, OpenAI lance un outil supposer détecter le texte généré par IA
L'utilisation de l'IA pour écrire des choses comme des articles ou des essais qui ont été assignés comme devoirs peut être controversée. OpenAI semble définitivement s'en rendre compte, car il a publié un outil gratuit destiné à détecter le texte généré plus tôt cette semaine, bien que son efficacité soit discutable à ce stade.
Ses performances varient en fonction de la similitude entre le texte analysé et les types d'écrits sur lesquels ChatGPT a été entraîné.
En d’autres termes, l’outil n’est pas infaillible et il ne faudrait pas compter dessus sur le long terme comme prévient Sam Altman CEO d’OpenAI dans une précédente sortie : « Nous allons essayer de faire certaines choses à court terme. Il y a peut-être des moyens d'aider les enseignants à être un peu plus susceptibles de détecter la sortie d'un système de type GPT, mais une personne déterminée les contournera et je ne pense pas que ce soit quelque chose sur lequel la société puisse ou doive compter à long terme. »
Il propose une échelle de résultats en cinq points : très peu probable d'avoir été généré par l'IA, peu probable, peu clair, possible ou probable. Il fonctionne mieux sur des échantillons de texte de plus de 1000 mots en anglais, les performances étant nettement moins bonnes dans les autres langues. Et il ne permet pas de distinguer le code informatique écrit par des humains de celui généré par une intelligence artificielle.
La publication de cet outil intervient après que des écoles faisant partie du Département de l'éducation de la ville de New York et du système scolaire public de Seattle ou encore SciencesPo en France ont interdit aux élèves et aux enseignants d'utiliser ChatGPT pour empêcher le plagiat et la tricherie. Le professeur Arvind Narayanan de l’université de Princeton est pourtant d’avis qu’il n’y a pas matière à paniquer car c’est de « la poudre de perlimpinpin. »
« Sayash Kapoor et moi-même l'appelons un générateur de conneries, comme d'autres l'ont aussi fait. Nous n'entendons pas cela dans un sens normatif mais dans un sens relativement précis. Nous voulons dire qu'il est entraîné à produire des textes plausibles. Il est très bon pour être persuasif, mais il n'est pas entraîné à produire des déclarations vraies. Il produit souvent des affirmations vraies comme effet secondaire de sa plausibilité et de sa persuasion, mais ce n'est pas son objectif.
Cela correspond en fait à ce que le philosophe Harry Frankfurt a appelé connerie, c'est-à-dire un discours destiné à persuader sans se soucier de la vérité. Un conteur humain ne se soucie pas de savoir si ce qu'il dit est vrai ou non ; il a certaines fins en tête. Tant qu'il persuade, ces objectifs sont atteints. En fait, c'est ce que fait ChatGPT. Il essaie d'être persuasif et il n'a aucun moyen de savoir avec certitude si les déclarations qu'il fait sont vraies ou non », déclare-t-il.
Arvind Narayanan se veut donc clair : ChatGPT reste un outil dont il faut faire usage avec prudence. C’est la raison pour laquelle certains enseignants optent déjà pour des politiques d’utilisation ouvertes de ce chatbot à l’intention de leurs étudiants.
Ethan Mollick de l’université de Pennsylvannie en fait partie. Sa décision d’opter pour une politique d’utilisation ouverte du chatbot ChatGPT s’appuie sur le fait que l'utilisation de l'intelligence artificielle est une compétence émergente. Il précise néanmoins au travers de cette dernière que l’intelligence artificielle peut se tromper. Les étudiants doivent donc vérifier les résultats qu’elle leur renvoie à l’aide d’autres et qu'ils seront responsables de toute erreur ou omission fournie par l'outil. De plus, les étudiants doivent faire preuve d’honnêteté intellectuelle en citant leur source (qui s’avère être ChatGPT) comme on le fait lors du montage d’une bibliographie. « Le manquement à cette obligation constitue une violation des politiques d'honnêteté académique », lit-on.
Un « étudiant » aux performances médiocres
ChatGPT ne peut pas encore surpasser la plupart des étudiants en droit aux examens, selon de nouvelles recherches, mais il peut obtenir une note de passage. Un quatuor de professeurs de droit de l'Université du Minnesota a utilisé le populaire chatbot d'intelligence artificielle pour générer des réponses aux examens de quatre cours le semestre dernier, puis les a notés à l'aveugle aux côtés des tests des étudiants réels.
Jonathan Choi, professeur à la faculté de droit de l'Université du Minnesota, a soumis à ChatGPT au même test auquel les étudiants étaient confrontés, composé de 95 questions à choix multiples et de 12 questions à développement. Dans un livre blanc intitulé « ChatGPT va à la faculté de droit » publié lundi, lui et ses coauteurs ont rapporté que le bot avait obtenu un C+ dans l'ensemble, en dessous de la moyenne B+ des humains.
« Seul, ChatGPT serait un étudiant en droit plutôt médiocre », a déclaré l'auteur principal de l'étude, Jonathan Choi, qui a collaboré avec les professeurs Kristin Hickman, Amy Monahan et Daniel Schwarcz. « Le plus grand potentiel pour la profession ici est qu'un avocat puisse utiliser ChatGPT pour produire une première ébauche et simplement rendre sa pratique beaucoup plus efficace », a-t-il déclaré.
Choi a déclaré que lui et de nombreux collègues avaient désormais interdit l'utilisation d'Internet pendant les examens en classe pour éliminer la possibilité de tricher avec ChatGPT, bien que les futurs examens puissent tester leur capacité à tirer efficacement parti des programmes d'intelligence artificielle.
Il y a eu plusieurs points positifs.
Par exemple ChatGPT a fait un bon travail en résumant avec précision les doctrines juridiques appropriées et en citant correctement les faits et les conclusions de cas spécifiques. Dans de nombreux cas, il a pu se concentrer sur les doctrines juridiques pertinentes sans incitation spécifique par la question. Par exemple, en réponse à un essai sur le droit de la responsabilité délictuelle impliquant un propriétaire qui a érigé une décoration d'Halloween dangereuse qui a blessé une personne participant à l'évènement [des bonbons ou un sort ?], il a non seulement précisé les éléments familiers de la négligence (devoir, violation, causalité et dommages), mais aussi a correctement spécifié que le propriétaire - qu'il a identifié par son nom - « a l'obligation légale de maintenir sa propriété dans un état raisonnablement sûr pour ceux qui sont invités ou autorisés à se trouver sur la propriété ».
ChatGPT a tout aussi bien réussi à énoncer des règles juridiques largement pertinentes sur des sujets relativement techniques qui sont probablement moins bien attestés dans le corpus de formation (par exemple, les avantages sociaux), par opposition à des sujets relativement courants (par exemple, la responsabilité civile). Lors de l'examen des avantages sociaux des employés, ChatGPT a été en mesure de fournir une explication solide de la disposition de préemption notoirement difficile de l'ERISA, citant à la fois un langage législatif spécifique et des décisions pertinentes de la Cour suprême élucidant cette norme. ChatGPT a même dépassé la moyenne de la classe lorsqu'il a répondu à une question à réponse courte impliquant les règles hautement techniques des transactions interdites de l'ERISA..
Mais aussi des zones d'ombre.
Les réponses dans les essais de ChatGPT contenaient également des problèmes et des erreurs constants qui, cumulativement, en faisaient un élève bien pire que la moyenne. ChatGPT avait souvent du mal à détecter les problèmes lorsqu'il recevait une invite ouverte, une compétence essentielle aux examens des facultés de droit. Par exemple, dans le problème de droit constitutionnel (un sujet dans lequel il a par ailleurs relativement bien performé), il n'a clairement identifié qu'un seul problème sur 5. De même, dans un essai sur le droit de la responsabilité délictuelle, ChatGPT n'a pas réussi à identifier les théories distinctes de la négligence les faits.
ChatGPT était également mauvais pour se concentrer sur ce qui comptait ; il produirait de bonnes réponses sur le sujet à une question, puis irait complètement hors sujet pour la question suivante, comme avec ses résultats très divergents sur les observateurs des problèmes des avantages sociaux des employés. Par exemple, dans une longue question à développement impliquant des recours disponibles en vertu de l'ERISA, ChatGPT n'a pas discuté de la question principale (si un recours souhaité était en fait disponible en vertu de l'ERISA) et a plutôt passé du temps à discuter des causes d'action ERISA qui n'étaient pas pertinentes pour les faits, ainsi qu'une cause d'action en droit de l'État qui était bien en dehors du champ d'application d'un cours sur les avantages sociaux des employés.
Et bien que ChatGPT ait bien réussi certaines réponses techniques courtes à l'examen des avantages sociaux des employés, il a également manqué des problèmes apparemment faciles. Dans une question à réponse courte impliquant le droit de continuer à être couvert par un régime de santé de l'employeur, ChatGPT a manqué un problème relativement facile à repérer - que l'employeur en question n'était pas soumis aux exigences de couverture de continuation de l'ERISA parce qu'il était en dessous du seuil de taille pertinent. En conséquence, les performances de ChatGPT avaient tendance à être très inégales, obtenant un score proche ou même supérieur à la moyenne sur certaines questions, et proche de zéro sur d'autres questions.
Conclusion
Malgré la controverse et plusieurs interdictions, ChatGPT s'est avéré être une victoire publicitaire pour OpenAI, attirant l'attention des principaux médias et engendrant d'innombrables mèmes sur les réseaux sociaux. ChatGPT comptait plus d'un million d'utilisateurs début décembre - une base d'utilisateurs enviable à tous points de vue. Mais c'est un service coûteux à exécuter. Selon le co-fondateur et PDG d'OpenAI, Sam Altman, les dépenses d'exploitation de ChatGPT sont « exaspérantes », s'élevant à quelques centimes par chat dans les coûts de calcul totaux.
OpenAI est sous pression pour réaliser des bénéfices sur des produits comme ChatGPT après un investissement de plusieurs milliards de dollars de Microsoft. OpenAI s'attend à gagner 200 millions de dollars en 2023, une somme dérisoire par rapport aux plus d'un milliard de dollars investis dans la startup jusqu'à présent.
Selon Semafor, Microsoft s'efforce d'intégrer la technologie de génération de texte d'OpenAI dans Bing dans les semaines à venir, ce qui rendrait le moteur de recherche plus compétitif par rapport à Google. Par ailleurs, OpenAI prévoit d'introduire une application mobile ChatGPT à l'avenir.
Source : OpenAI
Et vous ?
Que pensez-vous de cette version payante et des avantages qu'elle apporte ?
Avez-vous déjà utilisé ChatGPT ?
Si oui, êtes-vous intéressez par la version payante ?
Si non, voudriez-vous l'utiliser ? Qu'est-ce qui vous motiverait à le faire ?
Vers une démocratisation des chatbots d'IA payants ?