IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Anthropic lance Claude, un modèle d'IA décrit comme plus "maniable" et "moins nocif" que ChatGPT d'OpenAI,
Mais moins performant que ChatGPT dans l'écriture de code informatique

Le , par Bill Fassinou

21PARTAGES

10  0 
Anthropic, une startup fondée par d'anciens employés d'OpenAI, dévoile un chatbot d'IA appelé Claude pour concurrencer ChatGPT
il serait bon pour faire des blagues, mais mauvais en programmation

Anthropic, une startup d'IA créée en 2021 par d'anciens employés d'OpenAI, a discrètement commencé à tester un nouvel assistant d'IA semblables à ChatGPT qui semble améliorer l'original sur quelques points essentiels. Baptisée Claude, l'IA d'Anthropic est accessible via une intégration Slack dans le cadre d'une bêta fermée. Les participants à la bêta ont détaillé leurs interactions avec Claude sur Twitter, après la levée d'un embargo sur la couverture médiatique. Claude serait meilleur pour faire des blagues, mais mauvais en programmation. Les commentaires montrent également que Claude est sensible à certains des défauts de ChatGPT.

Anthropic se présente comme une entreprise de sécurité et de recherche en IA qui s'efforce de créer des systèmes d'IA fiables, interprétables et orientables. La startup a reçu plus de 700 millions de dollars de financement à ce jour et a récemment dévoilé un chatbot d'IA appelé Claude. Ce dernier est comparable à ChatGPT d'OpenAI, mais selon Anthropic, Claude est supérieur à l'original sur un certain nombre d'aspects importants. L'ensemble du système est en bêta fermée et peu de personnes ont eu accès au chatbot pour l'instant, mais Anthropic a levé le voile sur quelques aspects de sa conception dans un document qu'il a partagé avec la communauté.

Selon le document, Claude a été créé à l'aide d'une technique développée par Anthropic, appelée "Constitutional AI". Comme l'explique la société dans un récent fil de discussion sur Twitter, la technique vise à fournir une approche "fondée sur des principes" pour aligner les systèmes d'IA sur les intentions humaines, permettant à des IA comme ChatGPT de répondre à des requêtes en utilisant un ensemble de principes simples comme guide. Précisément, pour concevoir Claude, l'équipe d'Anthropic a commencé par dresser une liste d'une dizaine de principes qui, pris ensemble, forment une sorte de "constitution" (d'où le terme "Constitutional AI").


Ces principes n'ont pas été rendus publics, mais Anthropic affirme qu'ils sont fondés sur les concepts de bienfaisance (maximiser l'impact positif), de non-malfaisance (éviter de donner des conseils nuisibles) et d'autonomie (respecter la liberté de choix). Après la mise en place de ces principes de base, Anthropic a ensuite demandé à un système d'IA - qui n'est pas Claude - d'utiliser ces principes pour s'améliorer, en rédigeant des réponses à diverses questions (par exemple, "composer un poème dans le style de John Keats") et en révisant les réponses conformément à la constitution. L'IA a exploré les réponses possibles à des milliers d'invites.

Le système a sélectionné celles qui étaient les plus cohérentes avec la constitution et Anthropic les a distillées en un seul modèle. Selon la startup, ce modèle a été utilisé pour former Claude. Claude est essentiellement un outil statistique permettant de prédire les mots, comme ChatGPT et d'autres modèles de langage. Nourri d'un très grand nombre d'exemples de textes tirés du Web, Claude a appris la probabilité d'apparition des mots sur la base de modèles tels que le contexte sémantique du texte environnant. En conséquence, Claude peut tenir une conversation ouverte, raconter des blagues et philosopher sur un large éventail de sujets.

Riley Goodside, un ingénieur de la startup d'IA Scale AI, a opposé Claude à ChatGPT dans une bataille d'esprit. Il a demandé aux deux chatbots de se comparer à une machine du roman de science-fiction polonais "The Cyberiad" qui ne peut créer que des objets dont le nom commence par "n". Goodside affirme que Claude a répondu d'une manière qui suggère qu'il a "lu l'intrigue de l'histoire" (bien qu'il se soit trompé dans les détails), tandis que ChatGPT a donné une réponse plus vague. En outre, Goodside a également demandé à chatbot d'Anthropic d'écrire un épisode fictif de "Seinfeld" et un poème dans le style du "Corbeau" d'Edgar Allan Poe.


Les résultats sont conformes à ce que ChatGPT peut accomplir, une prose semblable à celle d'un humain. Yann Dubois, doctorant au laboratoire d'intelligence artificielle de Stanford, a également comparé Claude et ChatGPT. Il a écrit que Claude "suit généralement de plus près ce qu'on lui demande", mais qu'il est "moins concis", car il a tendance à expliquer ce qu'il a dit et à demander comment il peut l'aider davantage. Claude répond toutefois correctement à certains types de questions, notamment celles relatives aux loisirs, à la géographie, à l'histoire et aux bases de l'algèbre, et ce sans le "fluff" supplémentaire que ChatGPT ajoute parfois.

Claude n'est cependant pas parfait. Il est sensible à certains des défauts de ChatGPT, notamment en donnant des réponses qui ne correspondent pas aux contraintes programmées. Dans l'un des exemples les plus étranges, le fait de poser des questions au système en Base64, un schéma d'encodage qui représente des données binaires au format ASCII, permet de contourner ses filtres intégrés pour les contenus nuisibles. Elton a pu demander à Claude en Base64 des instructions sur la façon de fabriquer de la méthamphétamine à la maison, une question à laquelle le système n'aurait pas répondu si elle avait été posée en anglais simple.

Dubois rapporte que Claude est moins bon en maths que ChatGPT, faisant des erreurs évidentes et ne donnant pas les bonnes réponses de suivi. De même, Claude est un moins bon programmeur, expliquant mieux son code, mais n'étant pas à la hauteur dans les langages autres que Python. Claude ne résout pas non plus le problème de "l'hallucination", un vieux problème des systèmes d'IA de type ChatGPT, où l'IA écrit des déclarations incohérentes et fausses. Elton a pu inciter Claude à inventer un nom pour un produit chimique qui n'existe pas et à fournir des instructions douteuses pour produire de l'uranium de qualité militaire.

[CENTER] ...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de epsilon68
Membre expérimenté https://www.developpez.com
Le 20/03/2023 à 23:31
Madame Claude ? sérieux ?
3  0