
Anthropic se présente comme une entreprise de sécurité et de recherche en IA qui s'efforce de créer des systèmes d'IA fiables, interprétables et orientables. La startup bénéficie du soutien de Google auprès de qui elle a reçu un financement de 300 millions de dollars au début de l'année. Cela fait de Google le dernier géant du secteur de la technologie à mettre son argent et sa puissance de calcul au service d'une nouvelle génération d'entreprises qui tentent de se faire une place dans le domaine en plein essor de l'IA générative. Microsoft l'a fait à partir de 2019, en investissant un milliard dans OpenAI, puis plusieurs autres milliards au début de cette année.
En janvier, Anthropic a annoncé qu'elle travaillait sur Claude, un grand modèle de langage (LLM) pour concurrencer ChatGPT (GPT-3.5) d'OpenAI. Claude est comparable à ChatGPT d'OpenAI, mais selon Anthropic, son chatbot d'IA est supérieur à celui d'OpenAI sur un certain nombre d'aspects important. L'ensemble du système était en bêta fermée et peu de personnes avaient accès, mais l'entreprise a annoncé la semaine dernière la disponibilité générale de son outil. Deux versions du modèle d'IA, Claude et "Claude Instant", sont disponibles dès à présent pour un groupe limité d'utilisateurs précoces et pour les partenaires commerciaux d'Anthropic.
Claude peut être utilisé par l'intermédiaire d'une API ou d'une interface de chat dans la console de développement d'Anthropic. Avec l'API, les développeurs peuvent se connecter à distance aux serveurs d'Anthropic et ajouter les capacités d'analyse et de complétion de texte de Claude à leurs applications. « Nous pensons que Claude est le bon outil pour une grande variété de clients et de cas d'utilisation. Nous investissons dans notre infrastructure pour servir des modèles depuis plusieurs mois et nous sommes confiants dans notre capacité à répondre à la demande des clients », a déclaré un porte-parole d'Anthropic dans un communiqué à TechCrunch.
Le modèle d'IA d'Anthropic est issu des préoccupations principales concernant la sécurité future de l'IA, et la startup l'a formé en utilisant une technique qu'elle appelle "Constitutional AI". La technique vise à fournir une approche fondée sur des principes pour aligner les systèmes d'IA sur les intentions humaines, permettant à des IA comme ChatGPT de répondre à des requêtes en utilisant un ensemble de principes simples comme guide. Précisément, pour concevoir Claude, l'équipe d'Anthropic a commencé par dresser une liste d'une dizaine de principes de base qui, pris ensemble, forment une sorte de "constitution" (d'où le terme Constitutional AI).
Tout comme ChatGPT, Claude est capable d'effectuer une grande variété de tâches de conversation et de traitement de texte. Il est conçu pour aider les utilisateurs à effectuer des résumés, des recherches, des rédactions collaboratives, du codage et bien plus encore. Selon Anthropic, l'un des principaux points de différenciation de Claude est qu'il est conçu pour produire des résultats moins nocifs que la plupart des autres chatbots d'IA qui l'ont précédé. Claude est décrit comme un "système d'IA utile, honnête et inoffensif". Anthropic ajoute qu'il est facile à utiliser et à manipuler, de sorte que vous obtenez les résultats souhaités avec moins d'efforts.
Anthropic admet que Claude a ses limites, dont plusieurs sont apparues au cours de la version bêta fermée. Par exemple, Claude serait moins bon en maths et moins bon programmeur que ChatGPT. Claude a des hallucinations, inventant par exemple un nom pour un produit chimique qui n'existe pas, et fournissant des instructions douteuses pour produire de l'uranium de qualité militaire. Il est également possible de contourner les filtres de sécurité de Claude par le biais d'invites astucieuses, comme c'est le cas avec ChatGPT. Un utilisateur de la version bêta a réussi à obliger Claude à décrire comment fabriquer de la méthamphétamine à la maison.
Anthropic estime que le problème des hallucinations est un sujet délicat pour les entreprises d'IA. « Le défi consiste à créer des modèles qui n'ont jamais d'hallucinations tout en restant utiles. On peut se retrouver dans une situation difficile où le modèle pense qu'un bon moyen de ne jamais mentir est de ne jamais rien dire du tout, il y a donc un compromis sur lequel nous travaillons. Nous avons progressé dans la réduction des hallucinations, mais il reste encore beaucoup à faire », a déclaré le porte-parole d'Anthropic. La société envisage en outre de permettre aux développeurs d'adapter les principes constitutionnels de Claude à leurs propres besoins.
L'acquisition de clients est un autre objectif pour la startup. Anthropic voit ses utilisateurs principaux comme des "startups faisant des paris technologiques audacieux" en plus des "entreprises plus grandes et mieux établies". Elle fait face à une certaine pression de la part des investisseurs pour récupérer les centaines de millions de dollars investis dans sa technologie d'IA. En plus de Google, elle bénéficie d'un important soutien de la part d'investisseurs tels que Sam Bankman-Fried, fondateur et ancien PDG de FTX, Caroline Ellison, ancien PDG d'Alameda Research, Jim McClave, Nishad Singh, Jaan Tallinn et le Centre de recherche sur les risques émergents.
.@AnthropicAI's "Claude" is susceptible to the same base64 jailbreak as chatGPT. I'm very unclear why this works at all
— Dan Elton (@moreisdifferent) January 8, 2023
(originally reported here: https://t.co/j2cKAlEBQ0 pic.twitter.com/RwLuKniwiW
Les liens entre Anthropic et les protagonistes de la saga FTX, Caroline Ellison et Sam Bankman-Fried en l'occurrence, font l'objet de critiques. Anthropic aurait reçu une importante somme d'argent de 580 millions de dollars de la part des dirigeants de FTX qui sont aujourd'hui accusés, entre autres, d'escroquerie et de fraude en valeurs mobilières. La question s'est posée de savoir si cet argent pouvait être récupéré par un tribunal. En outre, Anthropic et FTX seraient liés au mouvement de l'altruisme efficace, que l'ancienne chercheuse de Google Timnit Gebru qualifie de "marque dangereuse de la sécurité de l'IA".
L'entreprise a annoncé que Claude et Claude Instant seront vendus selon deux grilles tarifaires différentes. Claude est un modèle très performant, tandis que Claude Instant est plus léger, moins cher et beaucoup plus rapide. Elle facture l'utilisation par million de caractères entrés et sortis. Alors que GPT-3.5-turbo d'OpenAI est facturé 0,002 $ pour 1 000 tokens (fragments d'un mot), Claude Instant est disponible pour 0,42...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.