Anthropic, une startup cofondée par d'anciens employés d'OpenAI, a lancé la semaine dernière un modèle d'IA appelé Claude dans le but de rivaliser avec ChatGPT. L'entreprise affirme que son IA peut être chargée d'effectuer toute une série de tâches, notamment la recherche dans des documents, le résumé, l'écriture et le codage, ainsi que la réponse à des questions sur des sujets particuliers. En outre, Anthropic fait valoir que "Claude est beaucoup moins susceptible de produire des résultats nuisibles et est plus facile à manipuler" que les autres chatbots d'IA. Elle a ajouté que deux versions du modèle d'IA, Claude et "Claude Instant", sont disponibles.Anthropic se présente comme une entreprise de sécurité et de recherche en IA qui s'efforce de créer des systèmes d'IA fiables, interprétables et orientables. La startup bénéficie du soutien de Google auprès de qui elle a reçu un financement de 300 millions de dollars au début de l'année. Cela fait de Google le dernier géant du secteur de la technologie à mettre son argent et sa puissance de calcul au service d'une nouvelle génération d'entreprises qui tentent de se faire une place dans le domaine en plein essor de l'IA générative. Microsoft l'a fait à partir de 2019, en investissant un milliard dans OpenAI, puis plusieurs autres milliards au début de cette année.
En janvier, Anthropic a annoncé qu'elle travaillait sur Claude, un grand modèle de langage (LLM) pour concurrencer ChatGPT (GPT-3.5) d'OpenAI. Claude est comparable à ChatGPT d'OpenAI, mais selon Anthropic, son chatbot d'IA est supérieur à celui d'OpenAI sur un certain nombre d'aspects important. L'ensemble du système était en bêta fermée et peu de personnes avaient accès, mais l'entreprise a annoncé la semaine dernière la disponibilité générale de son outil. Deux versions du modèle d'IA, Claude et "Claude Instant", sont disponibles dès à présent pour un groupe limité d'utilisateurs précoces et pour les partenaires commerciaux d'Anthropic.
Claude peut être utilisé par l'intermédiaire d'une API ou d'une interface de chat dans la console de développement d'Anthropic. Avec l'API, les développeurs peuvent se connecter à distance aux serveurs d'Anthropic et ajouter les capacités d'analyse et de complétion de texte de Claude à leurs applications. « Nous pensons que Claude est le bon outil pour une grande variété de clients et de cas d'utilisation. Nous investissons dans notre infrastructure pour servir des modèles depuis plusieurs mois et nous sommes confiants dans notre capacité à répondre à la demande des clients », a déclaré un porte-parole d'Anthropic dans un communiqué à TechCrunch.
Le modèle d'IA d'Anthropic est issu des préoccupations principales concernant la sécurité future de l'IA, et la startup l'a formé en utilisant une technique qu'elle appelle "Constitutional AI". La technique vise à fournir une approche fondée sur des principes pour aligner les systèmes d'IA sur les intentions humaines, permettant à des IA comme ChatGPT de répondre à des requêtes en utilisant un ensemble de principes simples comme guide. Précisément, pour concevoir Claude, l'équipe d'Anthropic a commencé par dresser une liste d'une dizaine de principes de base qui, pris ensemble, forment une sorte de "constitution" (d'où le terme Constitutional AI).
Tout comme ChatGPT, Claude est capable d'effectuer une grande variété de tâches de conversation et de traitement de texte. Il est conçu pour aider les utilisateurs à effectuer des résumés, des recherches, des rédactions collaboratives, du codage et bien plus encore. Selon Anthropic, l'un des principaux points de différenciation de Claude est qu'il est conçu pour produire des résultats moins nocifs que la plupart des autres chatbots d'IA qui l'ont précédé. Claude est décrit comme un "système d'IA utile, honnête et inoffensif". Anthropic ajoute qu'il est facile à utiliser et à manipuler, de sorte que vous obtenez les résultats souhaités avec moins d'efforts.
Anthropic admet que Claude a ses limites, dont plusieurs sont apparues au cours de la version bêta fermée. Par exemple, Claude serait moins bon en maths et moins bon programmeur que ChatGPT. Claude a des hallucinations, inventant par exemple un nom pour un produit chimique qui n'existe pas, et fournissant des instructions douteuses pour produire de l'uranium...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.