IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le code généré par l'IA contient plus de bogues et d'erreurs que celui produit par l'homme : les demandes d'extraction effectuées à l'aide d'outils d'IA comportaient en moyenne 10,83 problèmes contre 6,45

Le , par Jade Emy

124PARTAGES

7  0 
Selon une nouvelle étude de CodeRabbit, le code généré par l'IA présente nettement plus de défauts que le code écrit par des humains dans les principales catégories de qualité logicielle. Le rapport a révélé que les pull requests générées par l'IA contiennent en moyenne environ 1,7 fois plus de problèmes que celles écrites uniquement par des humains. Il a également identifié des taux plus élevés de défauts critiques et majeurs dans le code impliquant des outils d'IA.

Les assistants d'IA de codage sont censés accélérer le développement de logiciels. Les entreprises d'IA comme Microsoft affirment que leurs outils améliorent déjà la productivité des développeurs, mais les études rigoureuses indépendantes révèlent le contraire. Une étude du Model Evaluation & Threat Research rapporte que l'utilisation d'outils d'IA fait perdre du temps aux développeurs. Ils s'attendaient à une augmentation de 24 % de leur productivité, mais l'équipe a constaté un ralentissement de 19 %. Une précédente étude a révélé que l'utilisation d'outils d'IA n'augmente pas la vitesse de codage, mais augmente significativement le taux de bogues.

Selon une nouvelle étude de CodeRabbit, le code généré par l'IA présente nettement plus de défauts que le code écrit par des humains dans les principales catégories de qualité logicielle. La société de révision de code IA basée à San Francisco a analysé 470 demandes d'extraction open source sur GitHub. Elle a comparé 320 demandes d'extraction étiquetées comme co-rédigées par l'IA avec 150 soumissions rédigées uniquement par des humains. L'étude a mesuré les taux de problèmes dans des domaines tels que la logique, la maintenabilité, la sécurité, les performances et la lisibilité.

Le rapport a révélé que les pull requests générées par l'IA contiennent en moyenne environ 1,7 fois plus de problèmes que celles écrites uniquement par des humains. Il a également identifié des taux plus élevés de défauts critiques et majeurs dans le code impliquant des outils d'IA. CodeRabbit a déclaré que les modifications apportées par l'IA présentaient des problèmes accrus dans tous les domaines majeurs liés à la qualité. Les problèmes de logique et d'exactitude ont augmenté de 75 % dans le code généré par l'IA. Il s'agissait notamment d'erreurs de logique métier, de configurations incorrectes et de flux de contrôle non sécurisés.

Les vulnérabilités de sécurité sont apparues entre 1,5 et 2 fois plus souvent dans les pull requests générées par l'IA. Les problèmes de sécurité les plus courants concernaient une gestion incorrecte des mots de passe et des références d'objets non sécurisées. Les problèmes de lisibilité ont plus que triplé dans le code assisté par l'IA. Le rapport cite des niveaux plus élevés d'incohérences dans les noms et de problèmes de formatage, qui peuvent rendre le code plus difficile à comprendre et à maintenir au fil du temps.

Les inefficacités en termes de performances ont connu la plus forte augmentation relative. L'étude a révélé que des problèmes tels que des opérations d'entrée/sortie excessives apparaissaient près de huit fois plus fréquemment dans les soumissions générées par l'IA que dans les pull requests uniquement humaines.

L'un des auteurs a déclaré que ces résultats correspondaient aux préoccupations soulevées par les équipes de développement logiciel cette année. « Ces résultats confirment ce que de nombreuses équipes d'ingénieurs ont constaté tout au long de l'année 2025 », a déclaré David Loker, directeur de l'IA chez CodeRabbit. « Les outils de codage basés sur l'IA augmentent considérablement la production, mais ils introduisent également des faiblesses prévisibles et mesurables que les organisations doivent activement atténuer. »


Adoption croissante de l'IA

Cette étude intervient alors que les outils de génération de code basés sur l'IA se répandent rapidement dans l'industrie du logiciel. Plus de 90 % des développeurs déclarent désormais utiliser des outils de codage assistés par l'IA pour augmenter leur productivité et gérer les tâches routinières. Les entreprises font état des avantages de ces outils, notamment une augmentation d'environ 10 % de la productivité des ingénieurs et une réduction du temps consacré aux tâches répétitives. Les nouvelles données suggèrent que ces gains de productivité s'accompagnent d'un taux de défauts plus élevé et de nouvelles catégories de risques.

L'analyse de CodeRabbit indique que le code généré par l'IA n'ajoute pas seulement des problèmes mineurs. Selon l'entreprise, les défauts critiques et majeurs sont jusqu'à 1,7 fois plus fréquents dans les modifications apportées par l'IA que dans les demandes de modification effectuées uniquement par des humains.

Le rapport met en évidence des modèles clairs dans lesquels le code généré par l'IA présente des lacunes. Les erreurs logiques proviennent souvent d'une mauvaise compréhension des règles commerciales ou d'hypothèses incorrectes concernant la configuration et l'architecture. Les erreurs de configuration et les flux de contrôle non sécurisés augmentent le risque de comportement incorrect dans les systèmes de production.

Des problèmes de sécurité surviennent fréquemment lorsque le code généré par l'IA traite des informations sensibles. L'étude note des cas répétés de stockage ou de transmission inappropriés des mots de passe. Elle signale également des références d'objets non sécurisées qui pourraient exposer involontairement des données ou des fonctions.Les problèmes de lisibilité et de style semblent très répandus. L'incohérence des noms, le formatage irrégulier et la structure peu claire augmentent la charge de travail des réviseurs et des responsables de la maintenance. Ces problèmes peuvent ralentir la révision du code et rendre la maintenance à long terme plus complexe.

Les défauts de performance liés aux outils d'IA impliquent souvent une utilisation inefficace des ressources. Le rapport souligne que les opérations d'E/S excessives constituent un schéma récurrent, qui peut dégrader les temps de réponse et augmenter les coûts d'infrastructure lorsqu'elles sont déployées à grande échelle.

Stratégies d'atténuation

Parallèlement aux conclusions statistiques, CodeRabbit présente une série de mesures que les équipes logicielles peuvent adopter lorsqu'elles utilisent le développement assisté par l'IA. L'un des objectifs est de fournir un contexte de projet plus riche dans les invites. Selon l'entreprise, les modèles d'IA commettent davantage d'erreurs lorsqu'ils manquent d'informations sur les règles métier, les normes de configuration ou les contraintes architecturales. Elle recommande l'utilisation d'extraits de messages spécifiques au référentiel, de capsules d'instructions et de schémas de configuration qui fournissent ce contexte dès le départ.

Un autre domaine concerne le contrôle plus strict du style et du formatage du code. Le rapport note que les formateurs, les linters et les guides de style imposés par l'intégration continue peuvent éliminer de nombreux problèmes de lisibilité et de formatage avant la révision humaine. Les politiques exprimées sous forme de code dans ces outils réduisent la nécessité d'appliquer manuellement les normes.

CodeRabbit préconise également des contrôles plus stricts dans les pipelines d'intégration continue en réponse à l'augmentation des problèmes de logique et de gestion des erreurs. Il suggère d'exiger des tests pour tout flux de contrôle non trivial. Il suggère également d'imposer explicitement la nullabilité et les assertions de type, de normaliser les approches de gestion des exceptions et de demander explicitement des garde-fous dans les domaines complexes.

En matière de sécurité, l'entreprise recommande de centraliser la gestion des identifiants et de bloquer l'utilisation de mots de passe ad hoc dans le code. Elle invite également les équipes à effectuer automatiquement des tests de sécurité statiques des applications et des linters de sécurité dans leurs pipelines afin de détecter les vulnérabilités plus tôt dans le processus.

Le rapport propose des listes de contrôle des pull requests tenant compte de l'IA pour les réviseurs. Celles-ci comprennent des questions explicites sur la couverture des chemins d'erreur, l...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !