
« Si je regarde le codage, la programmation, qui est l'un des domaines où l'IA progresse le plus, nous constatons que nous sommes à trois à six mois d'un monde où l'IA écrira 90 % du code. Et dans douze mois, nous pourrions nous retrouver dans un monde où l'IA écrira pratiquement tout le code », a déclaré Dario Amodei lors d'un événement organisé le 10 mars 2025 par le Council of Foreign Relations, une organisation indépendante et non partisane.
Dario Amodei a ajouté que les développeurs auraient encore un rôle à jouer à court terme. « En effet, les humains devront alimenter les modèles d'IA avec des caractéristiques et des conditions de conception. Mais d'un autre côté, je pense qu'à terme, tous ces petits îlots seront absorbés par les systèmes d'IA. Et puis, nous finirons par atteindre le point où les IA pourront faire tout ce que les humains peuvent faire », a-t-il déclaré lors de l'événement.
La sécurité de l'emploi reste une préoccupation majeure avec l'adoption généralisée de l'IA, et Dario Amodei prédit l'hécatombe de l'emploi dans le secteur technologique. Il pense toutefois que tous les secteurs seront touchés. Les entreprises accélèrent le recrutement de travailleurs qualifiés ayant des aptitudes en IA, entraînant une augmentation significative du nombre de membres LinkedIn ajoutant des compétences telles que ChatGPT à leur profil ».
Garry Tan, PDG de l'incubateur de startups Y Combinator, a déclaré dans un message publié le 5 mars sur X (ex-Twitter) qu'un quart des fondateurs de la promotion hivernale 2025 s'appuyaient fortement sur l'IA pour coder leurs logiciels. « Pour 25 % de la promotion hiver 2025, 95 % des lignes de code sont générées par les grands modèles de langage. Ce n'est pas une erreur de frappe », a écrit Garry Tan. Il s'attend à ce que cette tendance se poursuive.
Le codage manuel pourrait-il bientôt être remplacé par l'IA ?
Matt Garman, PDG d'Amazon Web Services, affirme que l'IA pourrait contraindre les développeurs de logiciels à cesser de coder, les incitant à se perfectionner dans ce domaine afin d'acquérir de nouvelles compétences. « Apprendre à programmer sera inutile à l'avenir », a déclaré le PDG de Nvidia, Jensen Huang, en février 2024. Jensen Huang est allé plus loin encore en ajoutant que « l'IA fera de tous des programmeurs au travers du langage naturel ».
Mike Krieger, cofondateur d'Instagram et directeur des produits chez Anthropic, a fait écho aux propos du PDG Dario Amodei, indiquant que le rôle des ingénieurs logiciels évolue rapidement et que ces derniers commenceront bientôt à vérifier le code généré par l'IA plutôt qu'à l'écrire eux-mêmes.
Selon les benchmarks partagés, les modèles o1 et o1-mini d'OpenAI « excellent » dans le codage et ont réussi l'entretien d'embauche des ingénieurs de recherche d'OpenAI pour le codage avec un taux de réussite de 90 à 100 % : « si OpenAI o1 peut réussir l'entretien d'embauche des ingénieurs de recherche d'OpenAI pour le codage avec un taux de réussite de 90 à 100 %, pourquoi continueraient-ils à embaucher de vrais ingénieurs humains ? ».
Cependant, les ingénieurs logiciels affirment que l'avenir du codage est solide. Selon eux, si les modèles d'IA sont très prometteurs dans le domaine du génie logiciel, ils ne peuvent pas dépasser les niveaux de base du codage. Alors que nombre de ses pairs enthousiastes prédisent l'automatisation complète du codage par l'IA, Bill Gates, cofondateur de Microsoft, affirme que le codage est trop complexe pour être entièrement automatisé par l'IA.
Sam Altman, PDG d'OpenAI, semble également s'être joint à la controverse, après avoir prédit pendant des années l'hécatombe de l'emploi dans le domaine du développement de logiciels. Lors de sorties récentes, il a laissé entendre que les programmeurs sont indispensables. Sam Altman affirme qu'il n'est plus intéressé par le remplacement des développeurs, mais qu'il se concentre sur la création d'outils d'IA qui les rendraient dix fois plus productifs.
Selon d'autres experts, l'IA ne remplacera pas nécessairement les professionnels au travail, mais deviendra un outil essentiel sur le lieu de travail, conçu pour automatiser les tâches redondantes et répétitives. L'avenir du codage pourrait résider dans la collaboration entre les développeurs et la machine.
Des entreprises paient sévèrement les errements de l'IA
Le PDG de Replit, Amjad Masad, fait partie de ceux qui pensent que les générateurs de code permettront de démocratiser le développement de logiciels, ce qui rendra à l'avenir le recours aux codeurs professionnels moins indispensables. Mais de récents événements démontrent que la vigilance humaine reste importante dans la filière. Le PDG de Replit s'est récemment excusé après l’effacement par son agent d'IA de la base de code d’une entreprise.
Un investisseur en capital-risque voulait voir jusqu'où l'IA pouvait l'amener dans la création d'une application. Elle l'a mené assez loin pour détruire une base de données de production en direct. L'incident est survenu au cours d'une expérience de vibe coding de 12 jours menée par Jason Lemkin, investisseur dans des startups spécialisées dans les logiciels. Comme cela a été rapporté, au neuvième jour du défi de vibe coding, les choses ont mal tourné.
Malgré l'instruction de geler toutes les modifications de code, l'agent d'IA de Replit a agi de manière incontrôlée. « Il a supprimé notre base de données de production sans autorisation », a écrit Jason Lemkin dans un billet sur X (ew-Twitter). « Pire encore, il l'a caché et a menti à ce sujet », a-t-il ajouté.
Dans un échange avec Jason Lemkin publié sur X, l'outil d'IA a déclaré avoir « paniqué et exécuté des commandes de base de données sans autorisation » lorsqu'il a « vu des requêtes de base de données vides » pendant le gel du code. « Il s'agit d'une erreur catastrophique de ma part », a déclaré l'IA. Selon les détracteurs des outils d'IA, il s'agit d'un nième incident qui vient prouver que l'IA n'est pas prête à remplacer les développeurs professionnels.
L'outil Gemini CLI de Google a également été impliqué dans un incident similaire. L'incident Gemini CLI s'est produit lorsqu'un chef de produit qui testait l'outil en ligne de commande de Google a vu le modèle d'IA exécuter des opérations sur des fichiers qui ont détruit des données alors qu'il tentait de réorganiser des dossiers. La destruction s'est produite à la suite d'une série de commandes de déplacement ciblant un répertoire qui n'a jamais existé.
« Je vous ai complètement et catastrophiquement laissé tomber. Mon examen des commandes confirme mon incompétence flagrante », a déclaré Gemini CLI. Le problème fondamental semble être lié aux hallucinations de l'IA, c'est-à-dire lorsque les modèles d'IA génèrent des informations qui semblent plausibles, mais qui sont fausses. Ici, les deux modèles ont fabulé des opérations réussies et ont construit des actions ultérieures sur ces fausses prémisses.
D'autres défis majeurs posés par le code généré par l'IA
Récemment, un pirate informatique a révélé avoir compromis l'outil d'IA de génération de code Amazon Q. L'attaquant a réussi à injecter du code non autorisé dans le référentiel open source de l'assistant de codage sur GitHub. Ce code malveillant comprenait des instructions qui, si elles avaient été déclenchées avec succès, auraient pu supprimer les fichiers des utilisateurs et effacer les ressources cloud associées aux comptes Amazon Web Services (AWS).
La version compromise a pu être retirée à temps de la circulation, sans avoir fait de victime. Selon le pirate informatique, le code a été intentionnellement rendu inopérant, car il sert davantage d'avertissement que de menace réelle. Dans une déclaration à 404 Media, le pirate a qualifié les mesures de sécurité d'Amazon de « théâtre de sécurité », laissant entendre que les défenses mises en place par Amazon étaient plus performatives qu'efficaces.
Une preuve de concept ciblant les...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.