IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Anthropic, une startup fondée par d'anciens employés d'OpenAI, dévoile un chatbot d'IA appelé Claude pour concurrencer ChatGPT,
Il serait bon pour faire des blagues, mais mauvais en programmation

Le , par Bill Fassinou

10PARTAGES

9  0 
Anthropic, une startup d'IA créée en 2021 par d'anciens employés d'OpenAI, a discrètement commencé à tester un nouvel assistant d'IA semblables à ChatGPT qui semble améliorer l'original sur quelques points essentiels. Baptisée Claude, l'IA d'Anthropic est accessible via une intégration Slack dans le cadre d'une bêta fermée. Les participants à la bêta ont détaillé leurs interactions avec Claude sur Twitter, après la levée d'un embargo sur la couverture médiatique. Claude serait meilleur pour faire des blagues, mais mauvais en programmation. Les commentaires montrent également que Claude est sensible à certains des défauts de ChatGPT.

Anthropic se présente comme une entreprise de sécurité et de recherche en IA qui s'efforce de créer des systèmes d'IA fiables, interprétables et orientables. La startup a reçu plus de 700 millions de dollars de financement à ce jour et a récemment dévoilé un chatbot d'IA appelé Claude. Ce dernier est comparable à ChatGPT d'OpenAI, mais selon Anthropic, Claude est supérieur à l'original sur un certain nombre d'aspects importants. L'ensemble du système est en bêta fermée et peu de personnes ont eu accès au chatbot pour l'instant, mais Anthropic a levé le voile sur quelques aspects de sa conception dans un document qu'il a partagé avec la communauté.

Selon le document, Claude a été créé à l'aide d'une technique développée par Anthropic, appelée "Constitutional AI". Comme l'explique la société dans un récent fil de discussion sur Twitter, la technique vise à fournir une approche "fondée sur des principes" pour aligner les systèmes d'IA sur les intentions humaines, permettant à des IA comme ChatGPT de répondre à des requêtes en utilisant un ensemble de principes simples comme guide. Précisément, pour concevoir Claude, l'équipe d'Anthropic a commencé par dresser une liste d'une dizaine de principes qui, pris ensemble, forment une sorte de "constitution" (d'où le terme "Constitutional AI".

[tweet]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">We’ve trained language models to be better at responding to adversarial questions, without becoming obtuse and saying very little. We do this by conditioning them with a simple set of behavioral principles via a technique called Constitutional AI: <a href="https://t.co/rlft1pZlP5">https://t.co/rlft1pZlP5</a> <a href="https://t.co/MIGlKSVTe9">pic.twitter.com/MIGlKSVTe9</a></p>&mdash; Anthropic (@AnthropicAI) <a href="https://twitter.com/AnthropicAI/status/1603791161419698181?ref_src=twsrc%5Etfw">December 16, 2022</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/tweet]

Ces principes n'ont pas été rendus publics, mais Anthropic affirme qu'ils sont fondés sur les concepts de bienfaisance (maximiser l'impact positif), de non-malfaisance (éviter de donner des conseils nuisibles) et d'autonomie (respecter la liberté de choix). Après la mise en place de ces principes de base, Anthropic a ensuite demandé à un système d'IA - qui n'est pas Claude - d'utiliser ces principes pour s'améliorer, en rédigeant des réponses à diverses questions (par exemple, "composer un poème dans le style de John Keats" et en révisant les réponses conformément à la constitution. L'IA a exploré les réponses possibles à des milliers d'invites.

Le système a sélectionné celles qui étaient les plus cohérentes avec la constitution et Anthropic les a distillées en un seul modèle. Selon la startup, ce modèle a été utilisé pour former Claude. Claude est essentiellement un outil statistique permettant de prédire les mots, comme ChatGPT et d'autres modèles de langage. Nourri d'un très grand nombre d'exemples de textes tirés du Web, Claude a appris la probabilité d'apparition des mots sur la base de modèles tels que le contexte sémantique du texte environnant. En conséquence, Claude peut tenir une conversation ouverte, raconter des blagues et philosopher sur un large éventail de sujets.

Riley Goodside, un ingénieur de la startup d'IA Scale AI, a opposé Claude à ChatGPT dans une bataille d'esprit. Il a demandé aux deux chatbots de se comparer à une machine du roman de science-fiction polonais "The Cyberiad" qui ne peut créer que des objets dont le nom commence par "n". Goodside affirme que Claude a répondu d'une manière qui suggère qu'il a "lu l'intrigue de l'histoire" (bien qu'il se soit trompé dans les détails), tandis que ChatGPT a donné une réponse plus vague. En outre, Goodside a également demandé à chatbot d'Anthropic d'écrire un épisode fictif de "Seinfeld" et un poème dans le style du "Corbeau" d'Edgar Allan Poe.

[tweet]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">**Math**<br>ChatGPT is better but both still have a long way to go and answer confidently wrong responses.<br> <br>ChatGPT generally makes fewer crazy mistakes and can give correct responses, eg, in the proof below. <br> <br>5/8 <a href="https://t.co/qkVxlFIQHw">pic.twitter.com/qkVxlFIQHw</a></p>&mdash; Yann Dubois (@yanndubs) <a href="https://twitter.com/yanndubs/status/1611450998408753152?ref_src=twsrc%5Etfw">January 6, 2023</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/tweet]

Les résultats sont conformes à ce que ChatGPT peut accomplir, une prose semblable à celle d'un humain. Yann Dubois, doctorant au laboratoire d'intelligence artificielle de Stanford, a également comparé Claude et ChatGPT. Il a écrit que Claude "suit généralement de plus près ce qu'on lui demande", mais qu'il est "moins concis", car il a tendance à expliquer ce qu'il a dit et à demander comment il peut l'aider davantage. Claude répond toutefois correctement à certains types de questions, notamment celles relatives aux loisirs, à la géographie, à l'histoire et aux bases de l'algèbre, et ce sans le "fluff" supplémentaire que ChatGPT ajoute parfois.

Claude n'est cependant pas parfait. Il est sensible à certains des défauts de ChatGPT, notamment en donnant des réponses qui ne correspondent pas aux contraintes programmées. Dans l'un des exemples les plus étranges, le fait de poser des questions au système en Base64, un schéma d'encodage qui représente des données binaires au format ASCII, permet de contourner ses filtres intégrés pour les contenus nuisibles. Elton a pu demander à Claude en Base64 des instructions sur la façon de fabriquer de la méthamphétamine à la maison, une question à laquelle le système n'aurait pas répondu si elle avait été posée en anglais simple.

Dubois rapporte que Claude est moins bon en maths que ChatGPT, faisant des erreurs évidentes et ne donnant pas les bonnes réponses de suivi. De même, Claude est un moins bon programmeur, expliquant mieux son code, mais n'étant pas à la hauteur dans les langages autres que Python. Claude ne résout pas non plus le problème de "l'hallucination", un vieux problème des systèmes d'IA de type ChatGPT, où l'IA écrit des déclarations incohérentes et fausses. Elton a pu inciter Claude à inventer un nom pour un produit chimique qui n'existe pas et à fournir des instructions douteuses pour produire de l'uranium de qualité militaire.

[tweet]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Generally the results are the same as chatGPT but a bit more concise, it doesn't tend to pad its answer with additional &quot;fluff&quot; that isn't directly responding to the query. <br><br>I'll start with one example where I caught Anthropic's AI Assistant (&quot;Claude&quot saying something wrong <a href="https://t.co/NIti6Y5aU9">pic.twitter.com/NIti6Y5aU9</a></p>&mdash; Dan Elton (@moreisdifferent) <a href="https://twitter.com/moreisdifferent/status/1611514799250194433?ref_src=twsrc%5Etfw">January 7, 2023</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/tweet]

Mais contrairement à ChatGPT, Claude peut admettre (mais pas toujours) qu'il ne connaît pas la réponse à une question particulièrement difficile. Les tests révèlent qu'il semble également être meilleur pour raconter des blagues que ChatGPT, un exploit impressionnant si l'on considère que l'humour est un concept difficile à appréhender pour les systèmes d'IA. En comparant Claude à ChatGPT, le chercheur en IA Dan Elton a constaté que Claude faisait des blagues plus nuancées, comme « pourquoi le vaisseau Enterprise ressemble-t-il à une moto ? Il a un guidon », un jeu de mots sur l'apparence de guidon des nacelles de distorsion de l'Enterprise.

Alors, que faut-il en conclure ? Selon les analystes, à en juger par les résultats des tests, Claude est un peu meilleur que ChatGPT dans certains domaines, notamment l'humour, grâce à son approche "Constitutional AI". Mais si l'on en croit ses limites, le langage et le dialogue sont loin d'être un défi résolu pour l'IA. En raison de ces limites, certaines plateformes et les organisations ont mis en place des politiques restrictives vis-à-vis des modèles de langages. Le site de codage de questions-réponses Stack Overflow a interdit temporairement les réponses générées par ChatGPT pour des raisons d'exactitude factuelle.

La Conférence internationale sur l'apprentissage automatique a annoncé l'interdiction des articles scientifiques comprenant du texte généré par des systèmes d'IA, par crainte des "conséquences imprévues". Et les écoles publiques de la ville de New York ont restreint l'accès à ChatGPT, en partie à cause des craintes de plagiat, de tricherie et de désinformation générale.

Sources : Riley Goodside de Scale AI, Anthropic (PDF)

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de la méthode utilisée par Anthropic pour créer Claude ?
Quelles comparaisons faites-vous en ChatGPT et Claude ? Quel chatbot semble le meilleur ?
Que pensez-vous des limites de Claude ? Par exemple, le fait qu'il soit moins bon en programmation que ChatGPT ?
Malgré ses limites, pensez-vous que Claude pourrait faire de l'ombre à ChatGPT s'il venait à être ouvert au public ?

Voir aussi

OpenAI développe un logiciel pour détecter le texte généré par ChatGPT, plusieurs outils visent à déterminer quels textes ont été générés par IA et lesquels ont été écrits par des humains

Les résumés d'articles générés par ChatGPT parviennent à duper des scientifiques, ils ne peuvent pas toujours faire la différence entre les résumés générés par l'IA et les résumés originaux

Des cybercriminels testent le chatbot ChatGPT pour créer des logiciels malveillants et ravivent des craintes sur un futur où l'intelligence artificielle pourra surpasser l'humanité

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Bruno
Chroniqueur Actualités https://www.developpez.com
Le 04/02/2023 à 8:17
Google investit 300 M$ dans la start-up d'IA Anthropic, fondée par d'anciens chercheurs d'OpenAI,
la société a construit son propre chatbot généraliste, un rival de ChatGPT nommé Claude

Google et Microsoft en course pour l’avenir de l’IA. Alors que Microsoft est fermement lié à OpenAI, le créateur de ChatGPT, Google pourrait s'être tourné vers une entreprise moins connue du nom d'Anthropic et fondée par d'anciens employés d'OpenAI. Le géant de Mountain View a investi environ 300 millions de dollars dans la startup d'intelligence artificielle Anthropic, ce qui en fait le dernier géant de la technologie à mettre son argent et sa puissance de calcul au service d'une nouvelle génération d'entreprises qui tentent de se faire une place dans le domaine en plein essor de l'"IA générative".

En échange de cet investissement de 300 millions de dollars, Google aurait obtenu une participation de 10 % dans l'entreprise, et Anthropic serait tenu d'acheter des ressources de cloud computing à Google. Cette dynamique est quelque peu similaire au partenariat entre Microsoft et OpenAI. Dans ce dernier cas, OpenAI fournit l'expertise en matière de recherche, tandis que Microsoft fournit non seulement des milliards de dollars d'investissement, mais aussi l'accès à sa puissante technologie de cloud computing, nécessaire pour former les derniers modèles d'IA à forte intensité de calcul.


« Aujourd'hui, nous annonçons la troisième phase de notre partenariat à long terme avec OpenAI par le biais d'un investissement pluriannuel de plusieurs milliards de dollars visant à accélérer les percées de l'IA afin de garantir que ces avantages soient largement partagés avec le monde. Cet accord fait suite à nos précédents investissements en 2019 et 2021. Il étend notre collaboration en cours à travers le supercalculateur et la recherche en IA et permet à chacun d'entre nous de commercialiser indépendamment les technologies avancées d'IA qui en résultent », a déclaré Microsoft dans un billet de blog publié le mois dernier.

  • Le supercalculateur à grande échelle : Microsoft augmentera ses investissements dans le développement et le déploiement de systèmes spécialisés de supercalculateur afin d'accélérer la recherche indépendante et révolutionnaire d'OpenAI en matière d'IA ;
  • nouvelles expériences alimentées par l'IA : Microsoft va déployer les modèles d'OpenAI dans ses produits grand public et d'entreprise et introduire de nouvelles catégories d'expériences numériques basées sur la technologie d'OpenAI. Cela inclut le service Azure OpenAI de Microsoft, qui permet aux développeurs de créer des applications d'IA de pointe grâce à un accès direct aux modèles OpenAI, soutenus par les capacités fiables d'Azure, ainsi que par une infrastructure et des outils optimisés pour l'IA ;
  • Fournisseur exclusif de cloud : en tant que fournisseur exclusif de cloud pour OpenAI, Azure alimentera toutes les charges de travail d'OpenAI dans la recherche, les produits et les services API.

« Nous avons formé notre partenariat avec OpenAI autour d'une ambition commune de faire progresser de manière responsable la recherche de pointe sur l'IA et de démocratiser l'IA en tant que nouvelle plateforme technologique », a déclaré Satya Nadella, président et CEO de Microsoft. « Dans cette nouvelle phase de notre partenariat, les développeurs et les organisations de tous les secteurs d'activité auront accès aux meilleures infrastructures, modèles et chaînes d'outils d'IA avec Azure pour créer et exécuter leurs applications. »

« Les trois dernières années de notre partenariat ont été formidables », a déclaré Sam Altman, PDG d'OpenAI. « Microsoft partage nos valeurs et nous sommes ravis de poursuivre nos recherches indépendantes et de travailler à la création d'une IA avancée qui profite à tous. »

Alors que ChatGPT pourrait aider Bing à contester la domination de Google, ce dernier a déjà déclaré qu'il ne lancerait pas immédiatement son propre rival en raison du « risque de réputation ». Google aurait cité les problèmes de partialité et de factualité des chatbots IA existants comme une raison pour laquelle il n'est pas encore prêt à remplacer la recherche. Cependant, Google utilise depuis des années divers modèles linguistiques d'IA de grande taille pour améliorer subtilement son moteur de recherche.

Selon un rapport de CNBC, Sundar Pichai, PDG d'Alphabet, et Jeff Dean, responsable de l'IA chez Google, ont abordé la question de la montée en puissance de ChatGPT lors d'une récente réunion de l'ensemble du personnel. Un employé a demandé si le lancement du robot - construit par OpenAI, une société ayant des liens étroits avec Microsoft, le rival de Google - représentait une « occasion manquée » pour le géant de la recherche. Pichai et Dean auraient répondu que les modèles linguistiques d'IA de Google sont tout aussi capables que ceux d'OpenAI, mais que l'entreprise devait agir « de manière plus conservatrice qu'une petite startup » en raison du « risque de réputation » posé par cette technologie.

Anthropic est une société de recherche et de sécurité en IA qui travaille à la construction de systèmes d'IA fiables, interprétables et orientables. Les grands systèmes généraux d'aujourd'hui peuvent présenter des avantages considérables, mais ils peuvent aussi être imprévisibles, peu fiables et opaques : l’objectif avoué d’Anthropic est de progresser sur ces questions. Pour l'instant, l’entreprise se concentre principalement sur la recherche en vue d'atteindre ces objectifs ; elle prévoit de nombreuses possibilités pour notre travail de créer de la valeur commerciale et d'utilité publique.

Il est intéressant de noter qu'Anthropic développe également son propre chatbot polyvalent : un rival potentiel de ChatGPT nommé Claude. Toutefois, il n'est pas certain que Google envisage d'intégrer Claude dans ses services, comme Microsoft le fait avec ChatGPT. Google dispose déjà d'une grande expertise interne dans le développement de systèmes linguistiques d'IA, et le FT suggère que l'une des motivations de l'accord est simplement de développer l'activité de cloud computing de Google.

Claude donne peu de détails techniques sur sa mise en œuvre, mais le document de recherche d'Anthropic sur l'IA constitutionnelle décrit AnthropicLM v4-s3, un modèle pré-entraîné de 52 milliards de paramètres. Ce modèle autorégressif a été entraîné de manière non supervisée sur un grand corpus de textes, un peu comme le GPT-3 d'OpenAI. Anthropic indique que Claude est un nouveau modèle, plus grand, avec des choix architecturaux similaires à ceux de la recherche publiée.

Claude et ChatGPT s'appuient tous deux sur l'apprentissage par renforcement (RL) pour former un modèle de préférence sur leurs résultats, et les générations préférées sont utilisées pour des ajustements ultérieurs. Cependant, la méthode utilisée pour développer ces modèles de préférence diffère, Anthropic privilégiant une approche qu'il appelle l'IA constitutionnelle.

De nombreux chercheurs en IA ont depuis critiqué les actions d'OpenAI, les jugeant de plus en plus imprudentes, en particulier le lancement de ChatGPT sur le Web public à la fin de l'année dernière, sans garanties appropriées ni logiciel capable de détecter ses résultats de manière fiable. En comparaison, Anthropic met l'accent sur son travail de construction de "systèmes d'IA fiables, interprétables et orientables" sur son site Web.

Source : Report from the Financial Times

Et vous ?

Que pensez-vous de cette course entre Google et Microsoft pour l'avenir de l'IA ?

Pensez-vous que Google pourra rattraper l'avance de Microsoft qui connaît un succès avec ChatGPT ?

Quelle appréciation faites-vous de ChatGPT et de son potentiel concurrent Claude ?

Voir aussi :

OpenAI développe un logiciel pour détecter le texte généré par ChatGPT, plusieurs outils visent à déterminer quels textes ont été générés par IA et lesquels ont été écrits par des humains

Anthropic, une startup fondée par d'anciens employés d'OpenAI, dévoile un chatbot d'IA appelé Claude pour concurrencer ChatGPT, il serait bon pour faire des blagues, mais mauvais en programmation
5  0 
Avatar de epsilon68
Membre expérimenté https://www.developpez.com
Le 20/03/2023 à 23:31
Madame Claude ? sérieux ?
3  0