IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA en entreprise court à la catastrophe : code défaillant, hallucinations facturées au prix fort. Comment les entreprises mesurent tout sauf ce qui compte vraiment

Le , par Stéphane le calme

30PARTAGES

17  0 
Entre métriques trompeuses, code défaillant et rapports truffés d'hallucinations, les professionnels de l'IA commencent à décrire l'écart béant entre la promesse de la technologie et son déploiement réel. Un secteur entier, de la grande consultation aux équipes d'ingénierie, s'apprête à affronter une facture que personne ne veut encore regarder en face.

Dorian Smiley et Connor Deeks sont co-fondateurs de Codestrap, une société de conseil spécialisée en stratégie d'intelligence artificielle. Tous deux ont fait leurs armes chez PwC, l'un des quatre grands cabinets d'audit mondiaux. Leur verdict, formulé dans une interview accordée à The Register en mars 2026, est sans appel : personne ne sait vraiment comment intégrer l'IA dans son organisation. « Personne ne connaît les bonnes architectures de référence ou les bons cas d'usage pour son institution », reconnaît Smiley. « Beaucoup font semblant de le savoir. Mais il n'existe pas de guide à suivre. »

Cette absence de méthode n'est pas anodine. Elle traduit une réalité que le secteur peine à formuler : l'enthousiasme affiché par les directions est souvent de la mise en scène, une réponse à la pression des marchés financiers et des conseils d'administration, davantage qu'une transformation réelle des processus métier. Selon Deeks, si on construisait un système d'IA en repartant de zéro, il ressemblerait bien peu à ce qui est proposé aujourd'hui. Tout le discours sur la disparition des métiers d'ingénierie ou du travail de bureau, dit-il, « nous n'y souscrivons pas ».

Ce constat rejoint les données du terrain. D'après une étude de Lucidworks portant sur plus de 1 600 responsables IA et 1 100 entreprises, plus de sept organisations sur dix ont introduit l'IA générative dans leurs opérations. Pourtant, seulement 6 % ont pleinement déployé l'IA agentique, qui représente la prochaine étape de l'automatisation intelligente. L'adoption de surface est massive ; la transformation profonde, rarissime.

Des métriques qui mesurent tout sauf ce qui compte

Le problème fondamental que soulèvent Smiley et Deeks tient à la manière dont les organisations évaluent le succès de leurs déploiements d'IA. Dans le domaine du développement logiciel, les entreprises se félicitent d'une augmentation du nombre de lignes de code produites ou du volume de demandes de fusion (pull requests) traitées. Ce sont précisément les mauvaises métriques.

« Le code peut sembler correct, passer tous les tests unitaires, et être néanmoins défaillant », explique Smiley. « La façon de mesurer cela passe par des tests de performance. Beaucoup d'entreprises n'ont pas encore mis en place la boucle de retour nécessaire pour évaluer l'impact réel de la programmation assistée par IA sur les résultats qui leur importent. Les lignes de code, le nombre de demandes de fusion : ce sont des passifs, pas des indicateurs d'excellence technique. »

Les véritables métriques du génie logiciel sont d'un autre ordre : fréquence de déploiement en production, délai entre la conception et la mise en service, taux d'échec des modifications, temps moyen de rétablissement après incident. Smiley insiste : il nous faut un nouvel ensemble d'indicateurs pour mesurer l'impact de l'IA sur la performance des équipes d'ingénierie. « Nous ne savons pas encore quels sont ces indicateurs. »

Les chiffres disponibles renforcent son inquiétude. Selon une analyse de 2026 portant sur des systèmes en production, le code généré par IA introduit 1,7 fois plus de problèmes que le code écrit par des humains. Les erreurs de maintenabilité sont 1,64 fois plus fréquentes, les erreurs logiques 1,75 fois plus répandues, et les failles de sécurité augmentent d'un facteur 1,57 dans les bases de code où l'IA est fortement sollicitée. Le sentiment positif à l'égard des outils de programmation assistée par IA est d'ailleurs passé sous la barre des 60 % en 2025, contre plus de 70 % les années précédentes.

SQLite réécrit en Rust : un cas d'école dévastateur

Pour illustrer concrètement les dérives de cette mécanique, Smiley cite l'exemple d'une tentative de réécriture de SQLite en langage Rust, entièrement pilotée par une IA. Le résultat ? Un code 3,7 fois plus volumineux que l'original, affichant des performances 2 000 fois inférieures. « Pour une base de données, des performances 2 000 fois inférieures, c'est un produit non viable. On jette tout ça à la poubelle. Tout l'argent investi ne vaut rien. »

Ce cas illustre l'un des angles morts les plus préoccupants de l'IA appliquée à l'ingénierie logicielle : les modèles de langage n'ont pas la capacité d'évaluer eux-mêmes la qualité de leur production. « Un modèle ne peut pas relire son propre travail. Il ne sait pas si la réponse qu'il vous a donnée est juste. Ce sont des problèmes fondamentaux que personne n'a résolus dans la technologie des grands modèles de langage (LLM). Et vous voulez me dire que ça ne va pas se manifester dans des problèmes de qualité du code ? Bien sûr que ça va se manifester. »

À cela s'ajoute la non-déterminisme des modèles de raisonnement : la passe en avant à travers les réseaux de neurones produit des résultats différents à chaque exécution, en particulier pour les modèles qui mobilisent un monologue interne pour augmenter l'efficacité de la prédiction du prochain token. Autrement dit, demander deux fois la même chose à un modèle de raisonnement peut donner deux réponses différentes — sans que le système en soit conscient.

...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de floyer
Membre éclairé https://www.developpez.com
Le 24/03/2026 à 20:31
Sur un exemple simple (page php avec accès base de données), l’IA m’a réussi à oublier de se connecter à la base de données, et me sortir une vulnérabilité SQL-injection. Il faut être attentif.
6  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 26/03/2026 à 8:18
Citation Envoyé par Mathis Lucas Voir le message
Sur les 195,7 milliards de dollars de revenus du segment des centres de données de Nvidia en 2026, 135 milliards de dollars concernent le marché américain, mais 44 milliards de dollars de ce matériel restent stockés et non installés. La raison en est que la construction de centres de données est un processus "glacial" comparé à la vitesse des cycles de vente de matériel, avec des projets qui prennent souvent deux à quatre ans pour être finalisés.
Il y a moyen qu'une entreprises de l'IA fasse faillite avant que son centre de données soit construit.

Citation Envoyé par Mathis Lucas Voir le message
Les centres de données mettent à rude épreuve les réseaux électriques. Les centres de données nécessitent une alimentation électrique 24 heures sur 24 à des niveaux qui rivalisent avec, voire dépassent, les besoins de petites villes. Mais la construction de nouvelles infrastructures de transport et de production nécessite des années de procédures d’autorisation, d’acquisition de terrains, de gestion de la chaîne d’approvisionnement et de travaux.
On va nous soûler avec l'IA pendant encore des années et des années...
En 2032 on en sera probablement au même point, avec les mêmes articles :
- ce que produit l'IA n'est pas terrible
- les entreprises d'IA ne sont pas rentable
- les centres de données consomment trop de ressources
- la bulle de l'IA est bien pire que la bulle Internet
- OpenAI va encore un peu plus mal (si OpenAI est toujours vivant en 2032)

Et les entreprises de l'IA seront toujours en train d'y croire "notre solution va bientôt atteindre un stade qui fera qu'elle révolutionnera le monde".
D'un autre côté, peut-être qu'à force plus personne ne fera attention aux articles concernant l'IA. (je pense qu'il y a des gens qui ont déjà commencé à ignorer les articles en lien avec l'IA)
4  0 
Avatar de maltyxx
Futur Membre du Club https://www.developpez.com
Le 25/03/2026 à 21:00
Cet article résonne avec ce qu'on observe concrètement sur le terrain. Le problème fondamental n'est pas l'IA elle-même, mais l'absence totale de cadre d'évaluation adapté à la nature probabiliste de ces systèmes.

Dans nos expériences de déploiement de LLMs locaux (Mistral, Llama3), on a rapidement compris que les métriques classiques du développement logiciel — couverture de tests, vitesse d'exécution — ne mesurent pas ce qui compte vraiment : la cohérence métier des réponses, la stabilité comportementale entre les versions, et surtout la gestion des cas limites.

Ce qu'on a mis en place concrètement :
- Une validation humaine systématique sur un échantillon de sorties en production
- Des "golden datasets" métier-spécifiques pour détecter les dérives entre versions de modèles
- Une architecture locale qui garde les données sensibles hors des clouds tiers
- Un monitoring de la latence bout-en-bout pour les pipelines voix/texte en temps réel

L'IA agentique pose un problème supplémentaire : une erreur en début de chaîne se propage et s'amplifie. La supervision doit être encore plus rigoureuse qu'avec un LLM simple.

La vraie maturité du secteur viendra quand les équipes sauront dire "non" à un déploiement dont elles ne peuvent pas mesurer les risques réels. Et ça, aucun cabinet de conseil ne le facture.
3  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 26/03/2026 à 10:15
Quand dans le nom lui-même ("Intelligence Artificielle" qui n'a rien d'intelligent) il y a tromperie comment pourrait-il en être autrement?

A noter que tous le concept respire le mensonge et la malversation:

1. Les IA ont volé les données en ne respectant pas les droits d'auteur

2. Les IA trompent les clients en offrant des services pour un coût qui ne couvrent pas leur usage (si tu dis "on vous propose un voyage sur la lune pour un billet de 100 euro", il y aura plein de candidats. Maintenant si tu dis "on vous propose un voyage sur la lune mais il faut payer le coût réel de plusieurs milliards d'euro", il n'y a plus personne!)

3. Le succès économique des promoteurs de l'IA est lui-même basé sur une escroquerie nommée "valorisation circulaire": "Je te donne 1 milliard, tu me donnes 1 milliard? On est tous les 2 riches de 1 milliard et on se dit valorisé à hauteur de 100, 1000 ou 100 000 milliards!

4. Les réponses de l'IA se basent sur la tromperie: Ne jamais dire "je sais pas" (quand l'IA n'a pas de réponse, elle invente une réponse!), les algorithmes sont optimisés pour que l'IA réponde à l'humain comme un humain (45% des utilisateurs actuels de l'IA l'utilise comme un support émotionnel, un ami, un conseiller, un psychiatre, un être vivant à qui on peut parler de ses peines et obtenir des conseils de vie), etc...

5. L'IA, c'est un système qui fonctionne mal (entre 10 et 30% d'hallucination)... Question: Qui accepterait que sa voiture ne démarre pas dans 10% des cas?
3  0 
Avatar de JPLAROCHE
Membre expérimenté https://www.developpez.com
Le 24/03/2026 à 20:07
Je ne peux que confirmer ce qui est écrit dans cet article:

J'utilise l'IA, mais combien de fois, je suis obligé de lui dire de se concentrer sur le sujet et la demande, parce que l'IA est très bavarde, bref beaucoup de temps perdu, pourquoi parce que tu es obligé de prendre en compte ce qu'il dit pour voir le résultat...
Puis, tu es enjoint de faire des coupes dans la solution, je dirais plutôt les solutions proposées, et comme il est écrit dans l'article, tu t'apercevras qu'il se peut que des solutions puissent ne pas répondre aux problèmes posés, encore du temps de perdue, mais surtout t'amener à casser du code. Résultat à vouloir trop bien faire ...

Alors pourquoi j'utilise l'IA, je le prends pour un livre que je consulte. Là est sa richesse, en exemple et en information, on peut lui dire en lui donnant les liens quand sa connaissance ne prend pas d'office la dernière mise à jour par exemple Neovim ou Rust, et l'on peut le voir réagir.

Souvent l'IA cherche à vous montrer qu'il sait et qu'il est capable de vous donner la solution, Là aussi la dérive peut être cinglante.
Dernière critique il m'est arrivé que l'IA ne puisse pas répondre et là, il plante la confusion devient flagrante. Jusqu'à présent une fois, mais trois jours de perdu.

Il y a aussi un truc qui ne me plaît pas, il mémorise certaine chose de votre discutions et parfois, c'est erroné et tu lui fais la remarque, mais il ne la prend pas en compte ???

Il y a eu aussi un truc bizarre un jour, j'ai dit que je n'étais pas comptant et alors, il m'a été posé par un questionnaire, je lui ai précisé pourquoi, l'attitude de l'IA a changé, c'en était drôle à croire qu'elle était fâchée...

Une chose est sûre, c'est que l'IA pour coder HUMMMM..... avec des pincettes, car codée demande des précisions à la virgule près et bien souvent fait appel à la prise en charge de module externe (même si vous fournissez lesdits modules)

ma conclusion l'IA reste une formidable bibliothèque riche avec des exemples, mais n'invente rien, plus facile qu'avec un livre (quoique je fasse partie de la vieille génération et rien pour le moment ne remplace le livre) , oui, mais j'aurai dû dire des livres et je peux passer du Rust à Zig et Lua ou Python et finir en C là, elle est imbattable.
2  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 26/03/2026 à 14:17
à tous,

Rien ne n'étonne dans cet article, et dès le début de la "Hype" IA, cela sentait le mensonge assez fortement. L'IA, ça n'existe pas. C'est juste un algorithme qui sur base de statistiques et d'anciens code (dans le cas de la programmation), ne peut que donner de faux espoirs. Il faut être aveugle pour ne pas voir que cette "Hype" de l'IA, n'est qu'une "Hype" de plus dans le domaine technologique.

Comme toutes les "Hype", il en restera un "subset" et quelques cas "pratiques", mais certainement pas dans le domaine du développement. Le développement, ce n'est pas "chercher l'instruction suivante", ce que fait l'IA. Il y a tout un contexte, et ce contexte est difficilement explicable à une IA, car on se focalise en se moment sur ce que "génère" l'IA, sans trop se préoccupé de "comment" elle comprend ou interprète les "demandes". ces même "demandes", ont a déjà maintenant difficile de les obtenir du "client", il en résulte un "va et viens" permanent qui ne peut être "compréhensible" pour l'IA via un simple "prompt", car le "contexte" du "pourquoi" on lui demande quelque choses, elle ne le connait pas.

Les "vraies" révolutions sont rares, et ne "sortent pas" et ne se généralisent pas en qlq mois. L'IA est néfaste et toxique, tout ce qui est construit via des "prompts" par une "IA" devient avec le temps, une "base de code" incompréhensible, démesurée, et non maintenable sur la durée. C'est tout le contraire de ce qu'est le développement.

Je suis peut-être à contre courant de la "pensée" unique qu'on tente d'imposer dans le récit de "l'IA, c'est magique", mais tant pis, c'est mon avis, il n'engage que moi.

Ce qui malheureux, c'est que cet écran de fumée va freiner certains a s'engager dans le métier, qui n'est pas près de disparaître. Il y'a des licenciements massif actuellement, certes, mais dans quelques années, lorsque cet "Hype" sera passée, que l'on retombera les pieds sur terre, il n'y aura pas assez de développeurs compétents. Les seniors seront parti (en retraite ou virés), les juniors n'auront pas eu de bonne formation, et cela aura des répercutions.

Je me trompe peut-être, mais plus vite cette "Hype" sera passée, mieux ce sera. Ceux qui tirent actuellement profit de l'IA verront ces même profits partir aussi vite qu'ils sont arrivés.

La "magie" n'existe pas, on sait tous qu'il y'a un "truc" derrière, c'est pareil avec l'IA, un mensonge, une tromperie, en plus d'un vol qui semble n'émouvoir personne. Les "magiciens" gardent jalousement leurs secrets, ce n'est pas pour rien. Sans ces "secrets", ils disparaissent...

BàV et Peace & Love.
3  1 
Avatar de pyros
Membre expérimenté https://www.developpez.com
Le 26/03/2026 à 14:32
L'IA n'en est qu'à son balbutiement, elle est très loin d'atteindre sa forme finale, attendez 6, 7 ans, elle sera probablement meilleure.
Le problème est que justement, pas vraiment. Cela fait 1 ou 2 ans que les LLM ont atteint un plateau. L'architecture actuelle ne scale plus. Innutile de créer des model plus gros ou des centre de calcule plus puissant, il s'agit d'un problem fondamental, pas d'un probleme de taille de model.
Il y a aussi un autre problème pour le moment insolvable, c'est que les donnée de bonne qualitée manque et les donnée disponible sont de plus en plus pollué. Entrainer une IA sur des donnée générée dégrade les performances.

Pour finir, le principe même d'apprentissage bassé sur une quantité astronomique de donné fait qu'un IA ne peut être au mieu que "moyenne". Par ex, en donnant à manger à une IA toute la base de codé écrite par des humains, indépendament de leur qualité, elle deviendra un développeur moyen. Moyen en tout, certe, mais moyen quand même.
2  0 
Avatar de Artemus24
Expert éminent sénior https://www.developpez.com
Le 26/03/2026 à 15:04
Je ne sais pas si l'IA a atteint un plateau ou pas. Tout ce que je sais, l'IA est un moteur qui n'invente rien mais puise dans l'internet les données dont elle a besoin pour répondre à nos attentes. Si après, elle met en forme ces données pour mieux les exploiter, cela est un autre problème et je pense qu'il y a encore des progrès à faire à ce sujet. Le cœur même de son travail, l'IA a besoin de données fiables. Sans cela, elle ne peut rien produire. Or la pollution de ces données engendre une baisse de la performance des IA. L'IA ne pourra pas plus progresser, et elle se retrouvera dans le fameux plateau dont il est question, voire même régresser. Si le cœur même de ces données se trouve dans les forums et que ceux-ci viennent à disparaitre par manque de membres, je ne crois pas que l'IA pourra faire mieux que maintenant.

Le progrès ne peut se faire que sur de l'expérimentation. Il faut donner les moyens à l'IA de faire ses propres expériences. Nous sommes encore très loin de cette super intelligence capable de faire mieux que l'humain.
1  0 
Avatar de popo
Expert confirmé https://www.developpez.com
Le 26/03/2026 à 15:36
Citation Envoyé par Ryu2000 Voir le message
Si l'objectif n'est jamais atteint ils vont sacrément avoir l'air con, les actionnaires vont dire "vous avez dépensez sans compter pendant 12 ans et ça n'a jamais produit quelque chose de rentable".
Bref, exactement ce qu'a fait Musk avec Tesla et sa promesse de véhicules entièrement autonomes.
Tous les ans pendant 12 ans, on a eu droit à "vous inquiétez pas, c'est pour l'an prochain".

Blagues à part, le fonctionnement même de l'IA fait qu'elle va de plus en plus halluciner.
L'IA ne fait qu'extrapoler à partir de données dont elle n'est pas capable d'identifier la fiabilité.
A la longue l'IA va extrapoler à partir de données qu'une autre IA (ou la même IA) aura déjà extrapolé, perdant à chaque fois un peu plus de fiabilité.

Et cela sans compter que l'IA a besoin chaque jour de ressources et d'infrastructures de plus en plus importantes.

Citation Envoyé par Ryu2000 Voir le message
La question c'est "est-ce qu'on pourra un jour remplacer des employés de bureau par des algorithmes ?" et les CEO de Google, Amazon, Microsoft, Méta répondent "oui".
Ils répondent oui, parce qu'il est dans leur intérêt de le faire croire.
Ils vont certainement pas dire que leur IA n'a pas d'avenir sinon, ils ne pourront jamais la vendre.
Ils préfèrent cacher la vérité et amasser de l'argent tant qu'ils le peuvent.
1  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 26/03/2026 à 1:06
Citation Envoyé par maltyxx Voir le message
Dans nos expériences de déploiement de LLMs locaux (Mistral, Llama3), on a rapidement compris que les métriques classiques du développement logiciel — couverture de tests, vitesse d'exécution — ne mesurent pas ce qui compte vraiment : la cohérence métier des réponses, la stabilité comportementale entre les versions, et surtout la gestion des cas limites.
TL;DR: Je ne vois pas le rapport avec les LLM.

La couverture de test n'a jamais été une métrique pertinente de qualité du code. Il s'agit d'un indicateur bas de gamme de la qualité des tests : ce qui est rouge n'est pas couvert par des tests, donc soit c'est du code mort à enlever, soit il manque de test. C'est la seule chose intéressante qu'enseigne la couverture. Quand tout est vert, tu n'as plus aucune info à tirer de cette métrique, puisqu'un code vert veut seulement dire qu'il est exécuté lors du test, pas vérifié par le test.

Quand la couverture est à 100%, on peut passer au niveau suivant : s'assurer que le code ne régresse pas lors de futurs changements. Si on change le code, un test doit casser. Pour mesurer ça, tu peux utiliser du mutation testing : ça change le code (mutation) et refait tourner les tests pour confirmer que tu en as au moins un qui casse. Si rien ne casse, manque de test. Ça coûte bien plus cher à mesurer que la couverture de test (on réexécute la suite de test pour chaque changement) mais ce n'est encore une fois qu'une mesure de la qualité des tests, donc pas besoin de l'exécuter à chaque fois. L'exécuter régulièrement suffit (idéalement lors de la validation d'une PR, pour confirmer que les changements apportés sont correctement testés).

Mais tous ces tests ne valent rien s'ils ne valident pas le code. C'est là qu'intervient ta "cohérence métier" : il faut s'assurer que les exigences (cahier des charges) sont représentées dans les tests. Si un test ne se rattache à aucune exigence, c'est que ce test contraint le code sans raison évidente, et sera donc plus une épine dans le pied en cas de refacto qu'une sécurité contre la régression. Si un bout de code est remis en cause via mutation testing ou manque de couverture, soit c'est une exigence implicite (à expliciter avec du test), soit c'est du code inutile (à retirer), soit c'est un détail d'implémentation (changeable à tout moment pour s'adapter au contexte, donc ne devant pas être testé pour ne pas bloquer ces changements). À confirmer avec le PO, notamment pour expliciter l'exigence le cas échéant.

Et quand tu fais ça, la stabilité comportementale est garantie par l'exécution des tests et la gestion des cas limite aussi. En fait, ces deux notions sont la base du test automatisé.

L'idéal théorique étant un couverture de 100% (tout est exécuté), un mutation testing de 100% (tout est testé), et une traçabilité de 100% (uniquement des tests explicitement liés à des exigences). La pratique est toute autre.

Tout ça, c'était déjà vrai avant les LLM.
1  1