Anthropic se présente comme une entreprise de sécurité et de recherche en IA qui s'efforce de créer des systèmes d'IA fiables, interprétables et orientables. La startup bénéficie du soutien de Google auprès de qui elle a reçu un financement de 300 millions de dollars au début de l'année. Cela fait de Google le dernier géant du secteur de la technologie à mettre son argent et sa puissance de calcul au service d'une nouvelle génération d'entreprises qui tentent de se faire une place dans le domaine en plein essor de l'IA générative. Microsoft l'a fait à partir de 2019, en investissant un milliard dans OpenAI, puis plusieurs autres milliards au début de cette année.
En janvier, Anthropic a annoncé qu'elle travaillait sur Claude, un grand modèle de langage (LLM) pour concurrencer ChatGPT (GPT-3.5) d'OpenAI. Claude est comparable à ChatGPT d'OpenAI, mais selon Anthropic, son chatbot d'IA est supérieur à celui d'OpenAI sur un certain nombre d'aspects important. L'ensemble du système était en bêta fermée et peu de personnes avaient accès, mais l'entreprise a annoncé la semaine dernière la disponibilité générale de son outil. Deux versions du modèle d'IA, Claude et "Claude Instant", sont disponibles dès à présent pour un groupe limité d'utilisateurs précoces et pour les partenaires commerciaux d'Anthropic.
Claude peut être utilisé par l'intermédiaire d'une API ou d'une interface de chat dans la console de développement d'Anthropic. Avec l'API, les développeurs peuvent se connecter à distance aux serveurs d'Anthropic et ajouter les capacités d'analyse et de complétion de texte de Claude à leurs applications. « Nous pensons que Claude est le bon outil pour une grande variété de clients et de cas d'utilisation. Nous investissons dans notre infrastructure pour servir des modèles depuis plusieurs mois et nous sommes confiants dans notre capacité à répondre à la demande des clients », a déclaré un porte-parole d'Anthropic dans un communiqué à TechCrunch.
Le modèle d'IA d'Anthropic est issu des préoccupations principales concernant la sécurité future de l'IA, et la startup l'a formé en utilisant une technique qu'elle appelle "Constitutional AI". La technique vise à fournir une approche fondée sur des principes pour aligner les systèmes d'IA sur les intentions humaines, permettant à des IA comme ChatGPT de répondre à des requêtes en utilisant un ensemble de principes simples comme guide. Précisément, pour concevoir Claude, l'équipe d'Anthropic a commencé par dresser une liste d'une dizaine de principes de base qui, pris ensemble, forment une sorte de "constitution" (d'où le terme Constitutional AI).
Tout comme ChatGPT, Claude est capable d'effectuer une grande variété de tâches de conversation et de traitement de texte. Il est conçu pour aider les utilisateurs à effectuer des résumés, des recherches, des rédactions collaboratives, du codage et bien plus encore. Selon Anthropic, l'un des principaux points de différenciation de Claude est qu'il est conçu pour produire des résultats moins nocifs que la plupart des autres chatbots d'IA qui l'ont précédé. Claude est décrit comme un "système d'IA utile, honnête et inoffensif". Anthropic ajoute qu'il est facile à utiliser et à manipuler, de sorte que vous obtenez les résultats souhaités avec moins d'efforts.
Anthropic admet que Claude a ses limites, dont plusieurs sont apparues au cours de la version bêta fermée. Par exemple, Claude serait moins bon en maths et moins bon programmeur que ChatGPT. Claude a des hallucinations, inventant par exemple un nom pour un produit chimique qui n'existe pas, et fournissant des instructions douteuses pour produire de l'uranium de qualité militaire. Il est également possible de contourner les filtres de sécurité de Claude par le biais d'invites astucieuses, comme c'est le cas avec ChatGPT. Un utilisateur de la version bêta a réussi à obliger Claude à décrire comment fabriquer de la méthamphétamine à la maison.
Anthropic estime que le problème des hallucinations est un sujet délicat pour les entreprises d'IA. « Le défi consiste à créer des modèles qui n'ont jamais d'hallucinations tout en restant utiles. On peut se retrouver dans une situation difficile où le modèle pense qu'un bon moyen de ne jamais mentir est de ne jamais rien dire du tout, il y a donc un compromis sur lequel nous travaillons. Nous avons progressé dans la réduction des hallucinations, mais il reste encore beaucoup à faire », a déclaré le porte-parole d'Anthropic. La société envisage en outre de permettre aux développeurs d'adapter les principes constitutionnels de Claude à leurs propres besoins.
L'acquisition de clients est un autre objectif pour la startup. Anthropic voit ses utilisateurs principaux comme des "startups faisant des paris technologiques audacieux" en plus des "entreprises plus grandes et mieux établies". Elle fait face à une certaine pression de la part des investisseurs pour récupérer les centaines de millions de dollars investis dans sa technologie d'IA. En plus de Google, elle bénéficie d'un important soutien de la part d'investisseurs tels que Sam Bankman-Fried, fondateur et ancien PDG de FTX, Caroline Ellison, ancien PDG d'Alameda Research, Jim McClave, Nishad Singh, Jaan Tallinn et le Centre de recherche sur les risques émergents.
[tweet]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">.<a href="https://twitter.com/AnthropicAI?ref_src=twsrc%5Etfw">@AnthropicAI</a>'s "Claude" is susceptible to the same base64 jailbreak as chatGPT. I'm very unclear why this works at all<br><br>(originally reported here: <a href="https://t.co/j2cKAlEBQ0">https://t.co/j2cKAlEBQ0</a> <a href="https://t.co/RwLuKniwiW">pic.twitter.com/RwLuKniwiW</a></p>— Dan Elton (@moreisdifferent) <a href="https://twitter.com/moreisdifferent/status/1611921813788819456?ref_src=twsrc%5Etfw">January 8, 2023</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/tweet]
Les liens entre Anthropic et les protagonistes de la saga FTX, Caroline Ellison et Sam Bankman-Fried en l'occurrence, font l'objet de critiques. Anthropic aurait reçu une importante somme d'argent de 580 millions de dollars de la part des dirigeants de FTX qui sont aujourd'hui accusés, entre autres, d'escroquerie et de fraude en valeurs mobilières. La question s'est posée de savoir si cet argent pouvait être récupéré par un tribunal. En outre, Anthropic et FTX seraient liés au mouvement de l'altruisme efficace, que l'ancienne chercheuse de Google Timnit Gebru qualifie de "marque dangereuse de la sécurité de l'IA".
L'entreprise a annoncé que Claude et Claude Instant seront vendus selon deux grilles tarifaires différentes. Claude est un modèle très performant, tandis que Claude Instant est plus léger, moins cher et beaucoup plus rapide. Elle facture l'utilisation par million de caractères entrés et sortis. Alors que GPT-3.5-turbo d'OpenAI est facturé 0,002 $ pour 1 000 tokens (fragments d'un mot), Claude Instant est disponible pour 0,42 $ par million de caractères en entrée et 1,45 $ par million de caractères en sortie. Claude-v1, le plus grand modèle, est proposé à 2,90 dollars par million de caractères en entrée et à 8,60 dollars par million de caractères en sortie.
Bien qu'il n'existe pas de conversion standard entre les jetons et les caractères, des analystes estiment que l'API ChatGPT d'OpenAI coûte entre 0,40 et 0,50 dollar par million de caractères, ce qui signifie que Claude est plus cher en général. Toutefois, Anthropic estime que Claude a déjà été intégré dans plusieurs produits disponibles par l'intermédiaire de partenaires, notamment les résumés instantanés DuckAssist de DuckDuckGo, une partie de Notion AI, et une application de chat appelée Poe qui a été créée par Quora. D'autres partenaires de lancement - dont Robin AI et AssemblyAI - auraient également intégré Claude dans leurs produits.
« Nous utilisons Claude pour évaluer des parties particulières d'un contrat et pour suggérer un nouveau langage alternatif plus convivial pour nos clients. Nous avons constaté que Claude est très doué pour comprendre le langage, y compris dans des domaines techniques comme le langage juridique. Il est également très sûr de lui pour rédiger, résumer, traduire et expliquer des concepts complexes en termes simples », a déclaré Richard Robinson, PDG de Robin AI.
Anthropic a annoncé qu'elle prévoit d'introduire encore plus de mises à jour dans les semaines à venir pour rendre Claude plus utile, plus honnête et plus inoffensif. Selon certains analystes, compte tenu des projets annoncés par Google pour Bard et l'API PaLM, il semble peu probable que Google s'appuie sur Anthropic pour les solutions d'IA dans ses produits, mais le financement d'un rival d'OpenAI pourrait être dans l'intérêt stratégique de Google à l'avenir.
Source : Anthropic
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de la méthode utilisée par Anthropic pour créer Claude ?
Que pensez-vous des limites de Claude par rapport à ChatGPT ?
Pensez-vous que Claude puisse faire de l'ombre à ChatGPT ?
Selon vous, les chatbots d'IA peuvent-ils vaincre le problème d'injection d'invite ?
Voir aussi
Google investit 300 M$ dans la start-up d'IA Anthropic, fondée par d'anciens chercheurs d'OpenAI, la société a construit son propre chatbot généraliste, un rival de ChatGPT nommé Claude
Anthropic, une startup fondée par d'anciens employés d'OpenAI, dévoile un chatbot d'IA appelé Claude pour concurrencer ChatGPT, mil serait bon pour faire des blagues, mais mauvais en programmation
OpenAI lance GPT-4, une IA multimodale que l'entreprise affirme être à la pointe de la technologie, il serait 82 % moins susceptible d'être trompé par une injection d'invite que GPT-3.5
Les résumés d'articles générés par ChatGPT parviennent à duper des scientifiques, ils ne peuvent pas toujours faire la différence entre les résumés générés par l'IA et les résumés originaux