IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Anthropic lance un outil de révision de code doté d'une fonctionnalité de détection des bogues basée sur une IA multi-agents, Code Review met l'accent sur la profondeur mais son prix est élevé

Le , par Alex

26PARTAGES

5  0 
Anthropic lance un outil de révision de code doté d'une fonctionnalité de détection des bogues basée sur une IA multi-agents, Code Review met l'accent sur la profondeur mais son prix est élevé

Anthropic a lancé Code Review, un système alimenté par l'IA qui déploie une équipe d'agents pour inspecter chaque demande d'extraction à la recherche de bogues généralement ignorés par les analyses automatisées. Lorsqu'une demande d'extraction est ouverte, le système affecte plusieurs agents qui examinent le code de manière indépendante et en parallèle. À la suite de ce processus, Code Review adapte la profondeur de la révision en fonction de la complexité de chaque pull request. Les révisions sont facturées en fonction de l'utilisation des jetons et coûtent généralement entre 15 et 25 dollars.

Anthropic PBC est une société américaine spécialisée dans l'intelligence artificielle (IA) dont le siège social est situé à San Francisco. Elle a développé une famille de grands modèles linguistiques (LLM) appelée Claude. Anthropic fonctionne comme une société d'intérêt public qui recherche et développe l'IA afin d'« étudier ses propriétés de sécurité à la frontière technologique » et utilise ces recherches pour déployer des modèles sûrs pour le public.

Récemment, Anthropic a lancé Code Review, un système alimenté par l'IA qui déploie une équipe d'agents pour inspecter chaque demande d'extraction à la recherche de bogues généralement ignorés par les analyses automatisées. Contrairement aux solutions légères, Code Review met l'accent sur la profondeur, offrant une option plus rigoureuse que l'action GitHub open source Claude Code, qui reste disponible.

Lorsqu'une demande d'extraction est ouverte, le système affecte plusieurs agents qui examinent le code de manière indépendante et en parallèle. Ces agents collaborent pour détecter les problèmes potentiels, vérifier les résultats afin de minimiser les faux positifs et classer les bogues par ordre de gravité. La révision se termine par un résumé concis et clair de la demande d'extraction, complété par des commentaires détaillés en ligne pour les problèmes spécifiques.

À la suite de ce processus, Code Review adapte la profondeur de la révision en fonction de la complexité de chaque pull request : les modifications plus importantes ou plus complexes font l'objet d'une inspection approfondie avec des agents supplémentaires, tandis que les modifications simples font l'objet d'une évaluation plus légère. Les données internes d'Anthropic indiquent que la révision moyenne prend environ 20 minutes. Les révisions sont facturées en fonction de l'utilisation des jetons et coûtent généralement entre 15 et 25 dollars, les dépenses variant en fonction de la taille et de la complexité de la modification du code.

À ce jour, Code Review est disponible en version bêta en tant qu'aperçu de recherche pour les clients des plans Team et Enterprise d'Anthropic.


Voici l'annonce d'Anthropic :

Intégration de la révision de code à Claude Code

Aujourd'hui, nous lançons Code Review, qui envoie une équipe d'agents sur chaque PR afin de détecter les bugs que les analyses superficielles ne permettent pas de repérer. Ce système, conçu pour privilégier la profondeur plutôt que la rapidité, est utilisé pour presque toutes les PR chez Anthropic. Il est désormais disponible en avant-première pour les équipes et les entreprises.

Gérer le goulot d'étranglement de la révision

La production de code par ingénieur chez Anthropic a augmenté de 200 % au cours de l'année dernière. La révision de code est devenue un goulot d'étranglement, et nos clients nous font part de ce constat chaque semaine. Ils nous disent que les développeurs sont débordés et que de nombreuses PR sont parcourues rapidement plutôt que lues en profondeur.

Nous avions besoin d'un réviseur en qui nous pouvions avoir confiance pour chaque PR. Code Review est le résultat : des révisions approfondies et multi-agents qui détectent les bogues que les réviseurs humains manquent souvent eux-mêmes. C'est une option plus complète (et plus coûteuse) que notre Claude Code GitHub Action existant, qui reste open source et disponible.

Nous utilisons Code Review sur presque toutes les PR chez Anthropic. Auparavant, 16 % des PR faisaient l'objet de commentaires de révision substantiels. Aujourd'hui, ce chiffre est de 54 %. Il n'approuve pas les PR (cette décision revient toujours à un humain), mais il comble le fossé afin que les réviseurs puissent réellement couvrir ce qui est livré.

Comment ça marche

Lorsqu'une PR est ouverte, Code Review envoie une équipe d'agents. Les agents recherchent les bogues en parallèle, les vérifient pour filtrer les faux positifs et les classent par gravité. Le résultat est affiché sur la PR sous la forme d'un commentaire général à fort signal, accompagné de commentaires en ligne pour les bogues spécifiques.

Les révisions s'adaptent à la PR. Les modifications importantes ou complexes font l'objet d'une lecture plus approfondie par un plus grand nombre d'agents, tandis que les modifications mineures sont validées rapidement. D'après nos tests, la révision moyenne prend environ 20 minutes.


Code Review en action

Nous utilisons Code Review en interne depuis des mois : sur les PR volumineuses (plus de 1 000 lignes modifiées), 84 % font l'objet de conclusions, avec une moyenne de 7,5 problèmes. Sur les petites PR de moins de 50 lignes, ce chiffre tombe à 31 %, avec une moyenne de 0,5 problème. Les ingénieurs sont largement d'accord avec les conclusions : moins de 1 % des conclusions sont jugées incorrectes.

Dans un cas, une modification d'une ligne dans un service de production semblait routinière et était le type de différence qui obtient normalement une approbation rapide. Mais Code Review l'a signalée comme critique. La modification aurait rompu l'authentification du service, un mode de défaillance facile à ignorer dans la différence, mais évident une fois signalé. Elle a été corrigée avant la fusion, et l'ingénieur a déclaré par la suite qu'il ne l'aurait pas détectée tout seul.

Les clients ayant bénéficié d'un accès anticipé ont constaté des schémas similaires. Lors d'une refonte du chiffrement ZFS dans le middleware open source de TrueNAS, Code Review a mis en évidence un bug préexistant dans le code adjacent : une incompatibilité de type qui effaçait silencieusement le cache de la clé de chiffrement à chaque synchronisation. Il s'agissait d'un problème latent dans le code que le PR avait accidentellement touché, le genre de chose qu'un réviseur humain parcourant l'ensemble des modifications n'aurait pas immédiatement recherché.

Coût et contrôle

Code Review est optimisé pour la profondeur et est plus coûteux que des solutions plus légères telles que Claude Code GitHub Action. Les révisions sont facturées en fonction de l'utilisation des jetons et coûtent en moyenne entre 15 et 25 dollars, en fonction de la taille et de la complexité de la PR.

Les administrateurs disposent de nombreux moyens pour contrôler les dépenses et l'utilisation :

- Limites mensuelles pour l'organisation : définissez le montant total des dépenses mensuelles pour toutes les révisions.
- Contrôle au niveau du référentiel : activez les révisions uniquement sur les référentiels de votre choix.
- Tableau de bord analytique : suivez les PR examinées, le taux d'acceptation et le coût total des examens.

Pour commencer

Code Review est désormais disponible en version bêta pour les plans Team et Enterprise.

- Pour les administrateurs : activez Code Review dans vos paramètres Claude Code, installez l'application GitHub et sélectionnez les référentiels sur lesquels vous souhaitez effectuer des examens.
- Pour les développeurs : une fois activé, les examens s'exécutent automatiquement sur les nouvelles PR. Aucune configuration n'est nécessaire.

Source : Annonce d'Anthropic

Et vous ?

Pensez-vous que cette annonce est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

L'assistant de codage Claude Code d'Anthropic ajoute la prise en charge native du protocole LSP (Language Server Protocol) afin de faciliter la navigation, le refactoring et la compréhension du code

Améliorer la qualité du code à grande échelle grâce à l'IA Code Reviews assistant, un outil d'IA qui améliore les révisions des pull requests (PR), par Sneha Tuli

Si vous êtes doué pour la révision de code, vous serez doué pour utiliser les agents IA, par Sean Goedecke
Vous avez lu gratuitement 5 896 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !