IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La taxe invisible de la productivité d'un code d'IA « presque correct » : 84% des développeurs utilisent l'IA... mais 46% ne lui font pas confiance, selon une enquête

Le , par Stéphane le calme

0PARTAGES

14  0 
La taxe invisible de la productivité d'un code d'IA « presque correct » : 84% des développeurs utilisent l'IA... mais 46% ne lui font pas confiance,
selon une enquête

Les développeurs sont plus nombreux que jamais à utiliser des outils d'IA pour assister et générer du code. Alors que l'adoption de l'IA par les entreprises s'accélère, les nouvelles données d'une enquête auprès des développeurs révèlent un point critique : la dette technique croissante créée par les outils d'IA qui génèrent des solutions « presque correctes », sapant potentiellement les gains de productivité qu'ils promettent de fournir. Selon l'enquête, 84 % des développeurs utilisent des outils d'IA, mais 46 % d'entre eux ne font pas confiance aux résultats.

En quelques années, les assistants IA comme GitHub Copilot, ChatGPT, CodeWhisperer ou Tabnine sont devenus des partenaires quasi permanents dans l’environnement de développement. D’après le Stack Overflow Developer Survey 2025, plus de 84 % des développeurs déclarent utiliser ou envisager d’utiliser une IA générative dans leur travail quotidien. Il y a un an, ce chiffre s’élevait à 76 %, et seulement 55 % en 2023.

L’enthousiasme initial repose sur une promesse forte : automatiser les tâches répétitives, réduire le temps d’écriture, accélérer l’apprentissage de nouveaux langages, et même générer des solutions à des problèmes complexes en quelques secondes. Et en effet, dans bien des cas, ces IA tiennent parole – du moins en apparence.

Mais sous la surface, une réalité plus complexe émerge. L’outil qui semblait libérateur s’accompagne d’une charge mentale croissante, de frustrations insidieuses et, surtout, d’une taxe invisible sur la productivité.

L'enquête annuelle de Stack Overflow auprès des développeurs est l'un des plus importants rapports de ce type au cours d'une année donnée. En 2024, le rapport a révélé que les développeurs ne craignaient pas que l'IA ne supprime leurs emplois. De manière quelque peu ironique, Stack Overflow a d'abord subi l'impact négatif de la croissance de l'IA générique, avec une baisse du trafic et des licenciements en conséquence en 2023.

L'enquête menée en 2025 auprès de plus de 49 000 développeurs dans 177 pays révèle un paradoxe troublant dans l'adoption de l'IA par les entreprises. L'utilisation de l'IA continue de progresser - 84 % des développeurs utilisent ou prévoient d'utiliser des outils d'IA, contre 76 % en 2024. Pourtant, la confiance dans ces outils s'est effondrée.


La face cachée du code « presque juste » : quand l’IA nous ralentit

Une confiance en chute libre

Alors que l’adoption explose, la confiance, elle, s’effondre. En 2025, seulement 33 % des développeurs déclarent faire confiance à la précision du code généré par l’IA, contre 43 % en 2024. La confiance dans l'IA est passée de 77 % en 2023 à 72 % en 2024 et à seulement 60 % cette année. Plus frappant encore, 46 % disent explicitement ne pas lui faire confiance, soit une augmentation de 15 points en un an. Les développeurs expérimentés sont les plus sceptiques. Parmi ceux qui ont plus de 10 ans d’expérience, à peine 2,5 % expriment une « forte confiance » dans les outils IA. Cette fracture générationnelle illustre un paradoxe : plus on est compétent, plus on identifie les limites de l’IA.


Le vrai problème : le « code presque juste »

Ce que redoutent les développeurs, ce n’est pas que l’IA se trompe, c’est plutôt qu’elle fasse illusion. Le code généré est souvent syntaxiquement correct, logique en surface, mais fondamentalement erroné. Il compile, passe les tests superficiels, mais introduit des bugs subtils, des failles de sécurité ou des erreurs conceptuelles.

D'ailleurs, l'enquête révèle que :
  • 66 % des développeurs rapportent que le code généré semble bon mais contient des erreurs.
  • 45 % passent plus de temps à déboguer du code généré par l’IA qu’ils ne l’auraient fait en codant eux-mêmes.

Autrement dit : l’IA génère du travail invisible. Elle économise du temps en surface, mais en ajoute en profondeur.


Un coût opérationnel souvent ignoré

Une perte de temps masquée

Dans la course à la rapidité, certains développeurs insèrent directement du code IA dans les bases sans vérification approfondie. Résultat ? Une accumulation de dette technique, qui se paie plus tard, au prix fort : bugs en production, maintenance plus coûteuse, réécriture de modules entiers.

Les projets gagnent en vitesse initiale mais perdent en robustesse structurelle.

Des erreurs de sécurité critiques

Une étude récente de Veracode a montré que près de 45 % des suggestions de code IA contiennent des failles de sécurité exploitables : injections SQL, cross-site scripting, erreurs d’authentification…

Pour les entreprises manipulant des données sensibles, le code généré sans surveillance représente un risque juridique majeur.

Une surcharge cognitive

Les développeurs doivent désormais relire, comprendre, corriger un code qu’ils n’ont pas écrit. Cette posture « passive-agressive » crée un inconfort cognitif : il est plus difficile de déboguer un code généré que de le produire soi-même.

C’est là la véritable taxe de productivité : une IA qui semble aider mais exige un surinvestissement intellectuel permanent.

La majorité des développeurs évitent les agents et préfèrent des outils plus simples

Alors que les LLM sont la norme, les agents d'IA ne sont pas encore très répandus. Une majorité - 52 % des développeurs - déclare ne pas utiliser d'agents ou s'en tenir à des outils plus simples, et 38 % n'ont pas l'intention d'essayer des agents d'IA dans un avenir proche.

Mais parmi ceux qui les utilisent, les gains de productivité sont évidents : 69 % déclarent que les agents d'intelligence artificielle ont amélioré leur flux de travail, 70 % indiquent qu'ils ont réduit le temps consacré à des tâches spécifiques. Un bémol toutefois : seuls 17 % estiment que les agents d'IA ont amélioré la collaboration au sein de l'équipe, ce qui en fait l'impact le moins bien noté.

Le « Vibe Coding » existe désormais, mais n'est pas (encore) une pratique sérieuse

Oui, les développeurs expérimentent le « vibe coding », en demandant à un LLM de générer des applications ou des composants entiers. Mais ne vous attendez pas encore à ce que cela se retrouve dans votre répertoire de production : 77 % des développeurs déclarent que le vibe coding ne fait pas partie de leur flux de travail professionnel.

Au lieu de cela, l'interaction humaine domine toujours la boîte à outils de résolution de problèmes du développeur : 84 % d'entre eux utilisent Stack Overflow, 67 % GitHub, 61 % YouTube et, cerise sur le gâteau, 35 % des développeurs se tournent vers Stack Overflow en cas d'échec d'un code généré par l'IA. Ainsi, bien que l'IA soit un assistant tape-à-l'œil, la sagesse de la communauté des développeurs, issue de la foule, continue de faire la loi.


« Avec tous les investissements et l'attention portée à l'IA, je m'attendais à ce que la confiance augmente au fur et à mesure »

Pour Prashanth Chandrasekar, PDG, Stack Overflow : « Le manque de confiance croissant dans les outils d'IA nous est apparu comme le point clé de l'enquête de cette année, en particulier compte tenu du rythme accéléré de la croissance et de l'adoption de ces outils d'IA. L'IA est un outil puissant, mais elle présente des risques importants de désinformation ou peut manquer de complexité ou de pertinence ».

« L'un des résultats les plus surprenants a été un changement significatif dans les préférences des développeurs pour l'IA par rapport aux années précédentes, alors que la plupart des développeurs utilisent l'IA, ils l'aiment moins et lui font moins confiance cette année », a déclaré Erin Yepis, analyste principal pour les études de marché et les insights chez Stack Overflow. « Cette réponse est surprenante, car avec tous les investissements et l'attention portée à l'IA dans les actualités technologiques, je m'attendais à ce que la confiance augmente au fur et à mesure que la technologie s'améliorait. »

Pourquoi persiste-t-on à l’utiliser ?

Malgré ces constats, l’IA reste utilisée massivement. Pourquoi ?

Tout d'abord, parce qu’elle reste utile… pour les tâches simples. Les développeurs reconnaissent que l’IA est excellente pour :
  • Générer du boilerplate
  • Créer des tests unitaires
  • Écrire des scripts simples
  • Résoudre des erreurs de syntaxe

Mais moins de 30 % estiment qu’elle est capable de gérer des problèmes complexes ou critiques.


Du côté des débutants, les juniors y trouvent un tuteur omniprésent. L’IA leur permet de progresser rapidement, d’apprendre en testant. Mais cette dépendance peut créer un effet pervers : une perte de compétences analytiques et une tendance à survalider des solutions incorrectes.

Il faut aussi compter sur les profils moins techniques : l'IA impressionne les managers. L’IA permet de produire « quelque chose » rapidement, ce qui peut tromper sur la qualité réelle. Cela génère un effet de productivité trompeur, très apprécié des décideurs pressés. Pourtant, la réalité du terrain finit souvent par contredire l’illusion d’efficacité.

Conclusion

Le principal problème mis en évidence par l'enquête est la lutte de 66 % des développeurs contre les solutions IA qui sont « presque bonnes » mais manquent finalement la cible. Ce phénomène a un impact direct sur la productivité. La plupart des développeurs qui utilisent l'IA se retrouvent à passer plus de temps à corriger le code généré qu'à le concevoir eux-mêmes. L'enquête révèle d'ailleurs que 45 % des développeurs estiment que le débogage du code généré par l'IA prend plus de temps que sa rédaction à partir de zéro.

Ce travail de correction et de débogage représente une « taxe de productivité » cachée. Au lieu de libérer du temps pour des tâches plus complexes et créatives, l'IA génère un travail supplémentaire de vérification et de révision. Ce cycle de « génération-correction » peut non seulement annuler les gains de vitesse initiaux, mais aussi introduire de la frustration et une charge cognitive accrue pour le développeur.

Malgré cette méfiance et ces défis, il est important de noter que le sentiment général à l'égard de l'IA reste majoritairement positif (60 %). De nombreux développeurs (36 %) l'utilisent comme un outil de développement personnel, pour apprendre de nouvelles technologies ou perfectionner leurs compétences.

Si l'IA est devenue un outil incontournable pour la majorité des développeurs, il est crucial de reconnaître et de corriger le problème du code « presque bon ». Les outils d'IA doivent évoluer pour devenir non seulement plus rapides, mais aussi plus fiables. Pour les développeurs, cela signifie qu'il faut intégrer l'IA avec discernement, en l'utilisant comme un assistant puissant tout en restant vigilant et critique face à ses propositions. Le véritable potentiel de productivité de l'IA ne sera libéré que lorsque la confiance dans ses résultats aura rattrapé l'adoption explosive de la technologie.

Source : résultats de l'enquête

Et vous ?

Trouvez-vous cette enquête crédible ou pertinente ? Si vous utilisez une IA dans un contexte professionnel, faites-vous confiance au résultat ou le vérifiez-vous systématiquement ?

Comment les développeurs peuvent-ils mieux intégrer les outils d'IA dans leurs flux de travail pour minimiser la « taxe de productivité » du code « presque bon » ?

Quelles nouvelles fonctionnalités les outils d'IA devraient-ils développer pour gagner la confiance des développeurs et réduire le besoin de débogage manuel ?

Au-delà du code, comment le manque de confiance dans l'IA pourrait-il impacter d'autres aspects du développement logiciel, comme la conception de systèmes ou la documentation ?

À long terme, est-ce que cette méfiance envers l'IA pourrait freiner l'adoption de technologies d'automatisation plus avancées ou, au contraire, pousser à la création de systèmes plus fiables ?

Comment les entreprises peuvent-elles mesurer l'impact réel de l'IA sur la productivité de leurs équipes, en tenant compte du temps passé à corriger les erreurs et non seulement du temps gagné ?
Vous avez lu gratuitement 919 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 01/08/2025 à 2:15
Citation Envoyé par Stéphane le calme Voir le message
« L'un des résultats les plus surprenants a été un changement significatif dans les préférences des développeurs pour l'IA par rapport aux années précédentes, alors que la plupart des développeurs utilisent l'IA, ils l'aiment moins et lui font moins confiance cette année », a déclaré Erin Yepis, analyste principal pour les études de marché et les insights chez Stack Overflow. « Cette réponse est surprenante, car avec tous les investissements et l'attention portée à l'IA dans les actualités technologiques, je m'attendais à ce que la confiance augmente au fur et à mesure que la technologie s'améliorait. »
Ceux qui comprennent comment fonctionne l'IA ne devraient pas trouver cela surprenant. Les investissements, qui améliorent la technologie, et l'attention portée à l'IA, qui lui fait de la publicité, expliquent l'augmentation de son utilisation, pas de la confiance. La confiance vient avec les résultats obtenus lors de son utilisation. Or, à force de l'utiliser, les dévs se rendent comptent des limites de la techno, notamment le fait que cela reste un générateur de texte statistique, voué à générer des illusions à un moment ou à un autre.

Les probabilités de génération d'illusions peuvent être réduites significativement en améliorant l'apprentissage et le contexte, mais jamais tomber à zéro. C'est une limite intrinsèque des LLM. Et comme on leur ajoute des outils dont les résultats passent à nouveau par le LLM afin d'être formatés, même les résultats d'outils fiables sont assujettis au risque d'être déformés par le LLM.

Pour passer le cap des illusions, il faudra passer le cap du LLM. Soit en le rendant secondaire, permettant à un outil fiable de fournir son résultat sans déformation, soit en utilisant des technos (futures) qui n'ont pas ce problème à la place ou en complément du LLM.

C'est un outil utile, donc tout le monde s'y met, c'est normal de voir l'utilisation continuer d'augmenter. Et ça finira dans la boîte à outil requise du dév, donc on va probablement atteindre les ~95% d'utilisation (juste quelques % qui ne pourront pas l'utiliser dans des contextes très spécifiques, ou ni les LLM en ligne ni ceux qui tournent localement ne sont utilisables, pour qurelques raisons que ce soit). Par contre, tant qu'on reste sur cette techno, je ne serait pas surpris d'atteindre les 60-70% de dévs qui ne lui font pas confiance.

On en aura toujours une partie qui lui fera confiance, aveuglément ou par défaut. Soit des juniors, soit ces dévs qui restent incompétents toute leur vie car n'ayant aucun intérêt à s'améliorer. Ceux-là même qui sont 100% remplaçables par l'IA (remplacement qui pourrait les faire sortir du marché du dév, et donc augmenter au delà de 60-70%).

Et je suis convaincu que rien ne chamboulera ça tant qu'on n'aura pas une nouvelle techno que le LLM pour venir régler ce problème d'illusion.
3  0 
Avatar de Axel Mattauch
Membre averti https://www.developpez.com
Le 01/08/2025 à 12:38
Citation Envoyé par Matthieu Vergne Voir le message
Ceux qui comprennent comment fonctionne l'IA ne devraient pas trouver cela surprenant.
[...]

Pour passer le cap des illusions, il faudra passer le cap du LLM. Soit en le rendant secondaire, permettant à un outil fiable de fournir son résultat sans déformation, soit en utilisant des technos (futures) qui n'ont pas ce problème à la place ou en complément du LLM.

[...]

Et je suis convaincu que rien ne chamboulera ça tant qu'on n'aura pas une nouvelle techno que le LLM pour venir régler ce problème d'illusion.
N'étant ni dev pro, ni initié sérieusement à la techno IA, je ne peux me prononcer doctement.
L'article de Stéphane me parle, et ton commentaire [Matthieu] me paraît tout à fait pertinent.

Eu égard aux caractéristiques du support IA (rapidité, étendue du référentiel, fiabilité incertaine), je me demande si l'IA ne saurait pas jouer magnifiquement et efficacement le rôle du candide. En effet les tests faits par les dev sont biaisés -certes pertinents et ciblés- mais dans le design de produits, confier des tests au candide, s'avère souvent un moyen efficace pour mettre en lumière des anomalies non détectées par le processus normal.
0  0 
Avatar de Axel Mattauch
Membre averti https://www.developpez.com
Le 01/08/2025 à 12:52
Citation Envoyé par PhilippeGibault Voir le message
Notre métier n'est pas de faire du code qui marche, mais de faire du code qui dure.

Et la nuance est là.

[...]
C'est la différence entre un bon développeur qui va challenger son code pour le faire tenir sur la durée, et un mauvais développeur qui va juste faire le minimum et faire un machin-chose qui marche, ne faisant même pas de TU des fois.

La dernière catégorie est appelé le "Monkey Codeur".

De mon point de vue, je pense que l'IA va remplacer le Monkey Codeur. Et vu les enjeux économiques que représente la dette technique.
Vu les pertes économiques mais aussi sociales que représente la dette technique, je ne pleure pas la disparition du Monkey Codeur.

Par contre, je ne m'en fait pas pour le codeur qui essaye de challenger son code pour le faire durer.
Car là, il faut une intelligence humaine.

Et là, je ne pense pas que l'IA peut remplacer.
Éclairage très pertinent.

Pour corroborer ce point de vue, je pense qu'on peut le mettre en rapport avec l'évolution technique, qui d'industrielle (l'outil industriel est fait pour durer, investissements sur les compétences,...) est devenue une démarche financière ( vendre vite, produits mal conçus en évolution permanente, bénéfices financiers immédiats...).

Pour le fast business, il faut faire illusion que ça marche, faire croire que vous en avez besoin, remettre en cause le produit dès qu'il est acheté pour en vendre un autre, etc.

Monkey Codeur et IA sont parfaits pour générer des produits à obsolescence intégrée.
0  0