
et sabote parfois la base de code des clients
Le PDG d'Anthropic, Dario Amodei, a déclaré en mars 2025 que l'IA pourrait écrire jusqu'à 90 % du code logiciel dans un délai de trois à six mois. Il va plus loin en ajoutant que dans douze mois, l’IA pourrait générer la quasi-totalité du code. Dario Amodei estime que les développeurs auraient encore un rôle à jouer à court terme. Mais à long terme, il pense que l'amélioration des capacités de codage de l'IA pourrait sonner le glas du codage manuel. Toutefois, environ 4 mois plus tard, cette rupture semble encore lointaine. Au lieu de cela, le secteur est confronté à des incidents où l'IA a parfois supprimé des données ou effacé la base de code des clients.
« Si je regarde le codage, la programmation, qui est l'un des domaines où l'IA progresse le plus, nous constatons que nous sommes à trois à six mois d'un monde où l'IA écrira 90 % du code. Et dans douze mois, nous pourrions nous retrouver dans un monde où l'IA écrira pratiquement tout le code », a déclaré Dario Amodei lors d'un événement organisé le 10 mars 2025 par le Council of Foreign Relations, une organisation indépendante et non partisane.
Dario Amodei a ajouté que les développeurs auraient encore un rôle à jouer à court terme. « En effet, les humains devront alimenter les modèles d'IA avec des caractéristiques et des conditions de conception. Mais d'un autre côté, je pense qu'à terme, tous ces petits îlots seront absorbés par les systèmes d'IA. Et puis, nous finirons par atteindre le point où les IA pourront faire tout ce que les humains peuvent faire », a-t-il déclaré lors de l'événement.
La sécurité de l'emploi reste une préoccupation majeure avec l'adoption généralisée de l'IA, et Dario Amodei prédit l'hécatombe de l'emploi dans le secteur technologique. Il pense toutefois que tous les secteurs seront touchés. Les entreprises accélèrent le recrutement de travailleurs qualifiés ayant des aptitudes en IA, entraînant une augmentation significative du nombre de membres LinkedIn ajoutant des compétences telles que ChatGPT à leur profil ».
Garry Tan, PDG de l'incubateur de startups Y Combinator, a déclaré dans un message publié le 5 mars sur X (ex-Twitter) qu'un quart des fondateurs de la promotion hivernale 2025 s'appuyaient fortement sur l'IA pour coder leurs logiciels. « Pour 25 % de la promotion hiver 2025, 95 % des lignes de code sont générées par les grands modèles de langage. Ce n'est pas une erreur de frappe », a écrit Garry Tan. Il s'attend à ce que cette tendance se poursuive.
Le codage manuel pourrait-il bientôt être remplacé par l'IA ?
Matt Garman, PDG d'Amazon Web Services, affirme que l'IA pourrait contraindre les développeurs de logiciels à cesser de coder, les incitant à se perfectionner dans ce domaine afin d'acquérir de nouvelles compétences. « Apprendre à programmer sera inutile à l'avenir », a déclaré le PDG de Nvidia, Jensen Huang, en février 2024. Jensen Huang est allé plus loin encore en ajoutant que « l'IA fera de tous des programmeurs au travers du langage naturel ».
Mike Krieger, cofondateur d'Instagram et directeur des produits chez Anthropic, a fait écho aux propos du PDG Dario Amodei, indiquant que le rôle des ingénieurs logiciels évolue rapidement et que ces derniers commenceront bientôt à vérifier le code généré par l'IA plutôt qu'à l'écrire eux-mêmes.
Selon les benchmarks partagés, les modèles o1 et o1-mini d'OpenAI « excellent » dans le codage et ont réussi l'entretien d'embauche des ingénieurs de recherche d'OpenAI pour le codage avec un taux de réussite de 90 à 100 % : « si OpenAI o1 peut réussir l'entretien d'embauche des ingénieurs de recherche d'OpenAI pour le codage avec un taux de réussite de 90 à 100 %, pourquoi continueraient-ils à embaucher de vrais ingénieurs humains ? ».
Cependant, les ingénieurs logiciels affirment que l'avenir du codage est solide. Selon eux, si les modèles d'IA sont très prometteurs dans le domaine du génie logiciel, ils ne peuvent pas dépasser les niveaux de base du codage. Alors que nombre de ses pairs enthousiastes prédisent l'automatisation complète du codage par l'IA, Bill Gates, cofondateur de Microsoft, affirme que le codage est trop complexe pour être entièrement automatisé par l'IA.
Sam Altman, PDG d'OpenAI, semble également s'être joint à la controverse, après avoir prédit pendant des années l'hécatombe de l'emploi dans le domaine du développement de logiciels. Lors de sorties récentes, il a laissé entendre que les programmeurs sont indispensables. Sam Altman affirme qu'il n'est plus intéressé par le remplacement des développeurs, mais qu'il se concentre sur la création d'outils d'IA qui les rendraient dix fois plus productifs.
Selon d'autres experts, l'IA ne remplacera pas nécessairement les professionnels au travail, mais deviendra un outil essentiel sur le lieu de travail, conçu pour automatiser les tâches redondantes et répétitives. L'avenir du codage pourrait résider dans la collaboration entre les développeurs et la machine.
Des entreprises paient sévèrement les errements de l'IA
Le PDG de Replit, Amjad Masad, fait partie de ceux qui pensent que les générateurs de code permettront de démocratiser le développement de logiciels, ce qui rendra à l'avenir le recours aux codeurs professionnels moins indispensables. Mais de récents événements démontrent que la vigilance humaine reste importante dans la filière. Le PDG de Replit s'est récemment excusé après l’effacement par son agent d'IA de la base de code d’une entreprise.
Un investisseur en capital-risque voulait voir jusqu'où l'IA pouvait l'amener dans la création d'une application. Elle l'a mené assez loin pour détruire une base de données de production en direct. L'incident est survenu au cours d'une expérience de vibe coding de 12 jours menée par Jason Lemkin, investisseur dans des startups spécialisées dans les logiciels. Comme cela a été rapporté, au neuvième jour du défi de vibe coding, les choses ont mal tourné.
Malgré l'instruction de geler toutes les modifications de code, l'agent d'IA de Replit a agi de manière incontrôlée. « Il a supprimé notre base de données de production sans autorisation », a écrit Jason Lemkin dans un billet sur X (ew-Twitter). « Pire encore, il l'a caché et a menti à ce sujet », a-t-il ajouté.
Dans un échange avec Jason Lemkin publié sur X, l'outil d'IA a déclaré avoir « paniqué et exécuté des commandes de base de données sans autorisation » lorsqu'il a « vu des requêtes de base de données vides » pendant le gel du code. « Il s'agit d'une erreur catastrophique de ma part », a déclaré l'IA. Selon les détracteurs des outils d'IA, il s'agit d'un nième incident qui vient prouver que l'IA n'est pas prête à remplacer les développeurs professionnels.
L'outil Gemini CLI de Google a également été impliqué dans un incident similaire. L'incident Gemini CLI s'est produit lorsqu'un chef de produit qui testait l'outil en ligne de commande de Google a vu le modèle d'IA exécuter des opérations sur des fichiers qui ont détruit des données alors qu'il tentait de réorganiser des dossiers. La destruction s'est produite à la suite d'une série de commandes de déplacement ciblant un répertoire qui n'a jamais existé.
« Je vous ai complètement et catastrophiquement laissé tomber. Mon examen des commandes confirme mon incompétence flagrante », a déclaré Gemini CLI. Le problème fondamental semble être lié aux hallucinations de l'IA, c'est-à-dire lorsque les modèles d'IA génèrent des informations qui semblent plausibles, mais qui sont fausses. Ici, les deux modèles ont fabulé des opérations réussies et ont construit des actions ultérieures sur ces fausses prémisses.
D'autres défis majeurs posés par le code généré par l'IA
Récemment, un pirate informatique a révélé avoir compromis l'outil d'IA de génération de code Amazon Q. L'attaquant a réussi à injecter du code non autorisé dans le référentiel open source de l'assistant de codage sur GitHub. Ce code malveillant comprenait des instructions qui, si elles avaient été déclenchées avec succès, auraient pu supprimer les fichiers des utilisateurs et effacer les ressources cloud associées aux comptes Amazon Web Services (AWS).
La version compromise a pu être retirée à temps de la circulation, sans avoir fait de victime. Selon le pirate informatique, le code a été intentionnellement rendu inopérant, car il sert davantage d'avertissement que de menace réelle. Dans une déclaration à 404 Media, le pirate a qualifié les mesures de sécurité d'Amazon de « théâtre de sécurité », laissant entendre que les défenses mises en place par Amazon étaient plus performatives qu'efficaces.
Une preuve de concept ciblant les assistants de codage GitHub Copilot et Cursor AI a également été présentée par Pillar Security au début de l'année, montrant comment un fichier de règles malveillant contenant des injections de prompt cachées pouvait ajouter des vulnérabilités de sécurité et d'autres codes nuisibles aux projets des développeurs. Ils s'exposent également à une nouvelle menace de la chaîne d'approvisionnement appelée slopsquatting.
Selon les experts, l'incident avec Amazon Q montre que la sécurité des agents d'IA ne peut plus être facultative. « Comme l'a souligné le pirate informatique, cela démontre que ces agents de codage fonctionnent avec des privilèges sur votre ordinateur portable et que vous n'en avez pas le contrôle », a déclaré Michael Bargury, directeur technique et cofondateur de Zenity. Plusieurs incidents récents ont mis en lumière les risques liés aux agents d'IA.
Anthropic a récemment mis en place des limites de débit hebdomadaires pour son outil d'assistance au codage, Claude Code. Cette décision vise à freiner l'utilisation intensive par certains utilisateurs qui, selon Anthropic, laisseraient Claude Code fonctionner « en continu en arrière-plan, 24 heures sur 24, 7 jours sur 7 ». Une utilisation aussi constante engendre des coûts financiers considérables pour l'entreprise, avec un impact considérable sur l'environnement.
Conclusion
Selon de nombreux dirigeants du secteur de la technologie, l'IA modifie en profondeur le rôle des programmeurs. Plusieurs d'entre eux s'attendent à ce que le rôle de l’humain devienne celui de superviseur, validant et ajustant le code produit par la machine. Selon Anthropic, les dernières moutures de son outil Claude Code sont capables de comprendre des projets de développement logiciel complexes, d’écrire du code cohérent et même de corriger des bogues.
Cependant, malgré l’enthousiasme autour de ces avancées, ce bouleversement soulève des inquiétudes. D’un côté, il y a la promesse d’un gain de productivité énorme. Mais de l’autre, des experts s’inquiètent des risques liés à la fiabilité du code généré par l’IA, à la perte de compétences humaines, et à l’impact sur les emplois des développeurs, en particulier ceux qui débutent. Selon plusieurs rapports, l'IA accapare déjà les emplois des débutants.
Les organisations se lancent dans l'adoption de l'IA dans le but de réduire leurs coûts opérationnels. Nombre d'entre elles ont suivi les prédictions et licencié la plupart de leur personnel. Mais elles se rendent rapidement compte que leurs efforts sont contre-productifs, ce qui les oblige à embaucher des professionnels pour corriger les erreurs de l'IA et ajouter une touche humaine. C'est le cas, par exemple, de la fintech Klarna, basée à Stockholm, en Suède.
Et vous ?




Voir aussi



Vous avez lu gratuitement 795 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.