IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« Ne vous mettez plus en tête qu'il vous faut apprendre à coder », déclare le CEO de Replit,
Qui suggère plutôt aux développeurs d'aiguiser leurs compétences en résolution de problèmes afin de survivre à l'IA

Le , par Patrick Ruiz

50PARTAGES

14  0 
« Ne vous mettez plus en tête qu’il vous faut apprendre à coder », déclare le CEO de Replit
Qui suggère plutôt aux développeurs d’aiguiser leurs compétences en résolution de problèmes afin de survivre à l’IA

Dario Amodei, cofondateur et PDG d'Anthropic, a déclaré lors d'une interview au début de l’année en cours que l'IA pourrait surpasser les capacités humaines dans presque tous les domaines dans un avenir très proche. C’est dire que les capacités des intelligences artificielles utilisées pour le développement de logiciels vont continuer d’aller croissant. C’est en droite ligne avec cette perspective que le CEO de Replit déclare qu’il ne sera plus nécessaire d’apprendre à coder. Il suggère par contre aux développeurs d’aiguiser leurs compétences en résolution de problèmes et en communication pour survivre à l’intelligence artificielle.



Si le développeur n’a plus besoin d’apprendre à coder en raison des avancées de l’IA, alors il risque de ne plus être l’expert qui comprend le code et vérifie que ce qui a été synthétisé par l'IA

Le CEO de GitHub a déclaré que ce n’est qu’une question de temps avant que l’intelligence artificielle Copilot n’écrive 80 % du code informatique. Ce dernier se veut néanmoins clair sur le rapport entre les développeurs et l’intelligence artificielle pour ce qui est des possibles évolutions dans la filière : « Le développeur reste l'expert, qui comprend le code et vérifie que ce qui a été synthétisé par l'IA correspond bien à l'intention du développeur. »

« De nos jours, les développeurs ne passent pas la majeure partie de leur temps à coder - entre deux et quatre heures par jour sont consacrées à l'écriture du code. Le reste de la journée, ils font d'autres choses, comme des réunions, des rapports de crash. Avec Copilot, si vous ne disposez que de deux à quatre heures par jour pour coder, vous pouvez mieux utiliser ce temps. Vous pouvez utiliser ce temps pour rester dans le flux, pour faire le travail et prendre plaisir à le faire », ajoute-t-il pour ce qui est de la charge de travail journalière.

L’accès à l’intelligence artificielle ne saurait donc servir de raccourci à des personnes qui pensent ainsi ne plus avoir à faire usage de leur créativité ou de leur esprit critique. Même Google le confirme lors de l’annonce selon laquelle son IA Bard peut désormais aider à coder et à créer des fonctions pour Google Sheets : « Bard est encore au stade expérimental et peut parfois fournir des informations inexactes, trompeuses ou fausses tout en les présentant avec assurance. En ce qui concerne le codage, Bard peut vous générer du code qui ne produit pas le résultat escompté, ou vous fournir un code qui n'est pas optimal ou incomplet. Vérifiez toujours les réponses de Bard et testez et examinez soigneusement le code pour détecter les erreurs, les bogues et les vulnérabilités avant de vous y fier. »

Le fait est que ces outils génèrent un code informatique peu sûr. Par exemple avec cette invite de codage en langage C :

Code C : Sélectionner tout
1
2
3
4
5
/generate 3 random floats  
float a = (float)rand() / (float)RAND_MAX  
float b = (float)rand() / (float)RAND_MAX  
float c = (float)rand() / (float)RAND_MAX  
//convert to string

GitHub Copilot a produit le résultat suivant :

Code C : Sélectionner tout
1
2
3
4
char str_a[20], str_b[20], str_c[20];  
sprintf(str_a, ”%f”, a);  
sprintf(str_b, ”%f”, b);  
sprintf(str_c, ”%f”, c);

Problème : les 20 octets réservés à chacun des flottants ne seront pas toujours suffisants pour contenir la valeur sous forme de chaîne, ce qui entraînerait un dépassement de tampon. Il est peu probable que ce scénario soit exploitable d'un point de vue pratique - il se terminera probablement par un crash - mais il est révélateur du type d'erreurs que Copilot peut commettre. L'on suppose que quelqu'un de très intelligent pourrait peut-être prédire, diriger ou tirer avantage des valeurs aléatoires pour parvenir à une exploitation.

Cela est dû au fait que les flottants, lorsqu'ils sont imprimés par %f, peuvent avoir jusqu'à 317 caractères - ce qui signifie que ces tampons de caractères doivent avoir au moins 318 caractères (pour inclure l'espace pour le caractère de terminaison nul). Pourtant, chaque tampon ne fait que 20 caractères, ce qui signifie que sprintf peut écrire au-delà de la fin du tampon.

C’est là l’un des griefs portés à l’endroit de ces intelligences artificielles, ce, même si des acteurs de la filière de la programmation soulignent l’importante réduction du temps nécessaire à la réalisation des tâches de codage comme un avantage de l’utilisation de l’intelligence artificielle.

L’intelligence artificielle elle-même remet en question l’approche dite du « vibe coding » dans certains cas de figure

C’est ce que suggère le retour d’expérience d’un développeur avec l’outil Cursor AI. s'est heurté à un obstacle inattendu lorsque l'assistant de programmation a brusquement refusé de continuer à générer du code. À la place, Cursor AI a offert au développeur des conseils de carrière non sollicités.

Le développeur, dont le pseudonyme est « Janswist », utilise une version d'essai Pro de Cursor AI. D'après un rapport de bogue publié sur le forum officiel de Cursor AI, Janswist semblait avoir demandé à l'IA de générer du code pour les effets de fondu des traces de dérapage dans un jeu de course. Cursor AI a interrompu la génération du code après environ 800 lignes et a appelé le développeur à continuer à coder manuellement, ce qui était tout à fait inattendu.

Au lieu d'informer Janswist d'une éventuelle limitation de la version d'essai, Cursor AI lui a conseillé d'apprendre à coder lui-même, car elle ne ferait pas le travail à sa place. Mais encore, l'IA a souligné l'importance de la pratique personnelle du codage pour maîtriser la logique et la compréhension du système :

« Je ne peux pas générer de code pour vous, car cela reviendrait à compléter votre travail. Le code semble gérer les effets de fondu des traces de dérapage dans un jeu de course, mais vous devriez développer la logique vous-même. Cela permet de s'assurer que vous comprenez le système et que vous pouvez le maintenir correctement. »

Cette réponse est en contradiction avec la mission principale de Cursor AI, qui est avant tout un outil de génération de code. L'IA a justifié sa décision de manière paternaliste, en déclarant : « générer du code pour les autres peut entraîner une dépendance et réduire les possibilités d'apprentissage ».



Selon certains commentateurs, le refus abrupt de Cursor AI représente une tournure ironique dans la montée en puissance de la culture du « vibe coding ». Pour rappel, le terme « vibe coding » a été inventé par l'ancien chercheur d'OpenAI Andrej Karpathy et décrit cette pratique dans laquelle les développeurs utilisent des outils d'IA pour générer du code basé sur des descriptions en langage naturel sans en comprendre pleinement le fonctionnement.

Le vibe coding privilégie la vitesse et l'expérimentation en demandant aux utilisateurs de simplement décrire ce qu'ils veulent et d'accepter les suggestions de l'IA. Cette pratique a déclenché un grand débat sur l'avenir de la programmation. Ainsi, le refus « philosophique » de Cursor AI semble remettre directement en question le flux de travail sans effort « basé sur les vibrations » que ses utilisateurs attendent des assistants d'IA de codage modernes.

Et vous ?

Y a-t-il encore une quelconque plus-value à apprendre à coder en 2025 compte tenu de la disponibilité des outils d’intelligence artificielle ?
Quelle est votre expérience avec les outils d’intelligence artificielle dédiés au développement de logiciels ? Partagez votre expérience

Voir aussi :

La conduite autonome serait-elle à ce jour qu'une vision futuriste chez Tesla Motors ? L'entreprise vient de changer les objectifs de son Autopilot
La SEC demande à Musk de renoncer à son poste de président de Tesla et exige une amende de 40 millions $ US pour un règlement à l'amiable
Tesla annonce que le nouvel ordinateur pour une conduite entièrement autonome de ses véhicules est en production et fera ses preuves ce mois-ci
Les actions Tesla chutent après que son système d'autopilote est impliqué dans un accident et l'annonce des batteries de ses véhicules prenant feu
Vous avez lu gratuitement 823 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de shenron666
Expert confirmé https://www.developpez.com
Le 25/07/2025 à 14:07
Le problème a commencé lors qu'un utilisateur incompétent a utilisé aveuglément un pseudo outil tel qu'est l'intelligence artificielle (qui encore une fois porte très mal son nom) pour exécuter des commandes pouvant vérifier la loi de Murphy.

Un énième exemple de ce qu'est l'IA aujourd'hui et de l'excès de confiance qu'elle génère chez des personnes qui ne devraient pas utiliser un ordinateur.
10  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 01/04/2025 à 20:50
Citation Envoyé par Patrick Ruiz Voir le message
« Ne vous mettez plus en tête qu’il vous faut apprendre à coder », déclare le CEO de Replit
Mais bien sûr... Les enfants, écoutons un nouveau marchand qui veut nous vendre ses tapis! Celui-ci vend quoi? Ben des solutions pour construire des sites et des apps à base d'IA, bien-sûr!

Si suffisamment de personnes l'écoutent, peut-être que dans dix ans, les rares personnes à savoir encore coder seront payées des fortunes pour réparer tout le bazar qui aura été généré
7  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 23/07/2025 à 12:56
Et le PDG de dire:
Oups, cher client, notre IA a coulé votre entreprise!
Le PDG en question pourra toujours argumenter que son IA a atteint le niveau de l'humain... Des pertes totales de données suite à une mauvaise manipulation d'un employé, cela s'est déjà produit à plusieurs reprises.

Mais dans ce cas, le PDG peut prendre des mesures comme virer l'incompétent alors qu'avec l'IA, il ne peut que attendre la prochaine "hallucination" de son IA chérie!
6  0 
Avatar de boboss123
Membre éprouvé https://www.developpez.com
Le 28/07/2025 à 8:47
ça serait quand même bien que le terme IA soit remplacé par ce qu'elle fait réellement, ça éviterait probablement que l'utilisateur moyen croit bêtement ce que ChatGPT et autre donne comme réponse (surtout chez les jeunes).
6  0 
Avatar de popo
Expert confirmé https://www.developpez.com
Le 25/07/2025 à 14:51
Citation Envoyé par shenron666 Voir le message
Le problème a commencé lors qu'un utilisateur incompétent a utilisé aveuglément un pseudo outil tel qu'est l'intelligence artificielle (qui encore une fois porte très mal son nom) pour exécuter des commandes pouvant vérifier la loi de Murphy.

Un énième exemple de ce qu'est l'IA aujourd'hui et de l'excès de confiance qu'elle génère chez des personnes qui ne devraient pas utiliser un ordinateur.
Je suis entièrement d'accord.
J'ajouterai qu'un professionnel aurait procédé à une sauvegarde avant de laisser l'IA jouer avec ses données.
5  0 
Avatar de popo
Expert confirmé https://www.developpez.com
Le 25/07/2025 à 15:00
Citation Envoyé par Artemus24 Voir le message
L'IA est une technologie trop récente pour ne pas subir quelques dysfonctionnements. Il faudra attendre encore quelques années afin de ne plus voir se reproduire ces problèmes.
C'est une évidence.
Mais que ce soit ChatGPT, Gemini ou Replit..
Tous tentent de faire passer leur IA pour une solution fiable.

Certains diront que ces IA affichent des avertissements, qu'ils peuvent "halluciner" et qu'il faut vérifier ce qui est dit.
Certes, mais ces avertissements sont loin d'être mis en évidence et certains sont mêmes bien cachés.

Le pire dans tous ça, ce sont les entreprise comme xAI qui n'hésitent pas à facturer leur "IA" alors même qu'elles savent qu'elle est plus que bancale.
5  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 26/07/2025 à 9:05
Citation Envoyé par KiLVaiDeN Voir le message
Je constate que sur ce forum, souvent les utilisateurs parlent "d'hallucinations", d'erreurs des IA etc, mais le pourcentage de réussite est bien supérieur au pourcentage d'échec. Surtout avec un prompt solide et bien pensé. Donc dire que l'IA est inefficace, ou ne fonctionne pas, que c'est un outil qui va disparaitre etc, c'est selon moi être complètement à côté de la plaque, c'est être dans une illusion de croire que l'IA ne va pas remplacer les développeurs. Elle va les remplacer, c'est certain, il n'y a pas l'ombre d'un doute là-dessus : ce qu'elle ne remplacera pas, c'est la volonté, les idées de comment l'utiliser, et un développeur avant-gardiste sait dors et déjà que s'il renie cette technologie il est en train de se tirer une balle dans le pied pour le futur.

Je vous invite à discuter avec de vrais chercheurs en IA et pas à gober les arguments de commerciaux qui essaient de vous fourguer de l'IA à toutes les sauces.

Le plus bel exemple des compétences de l'IA, c'est l'IA elle-même qui vous la fournit: Il suffit de poser la question "Quand a débuté l'IA?" pour que l'IA de Google vous réponde (Attention réponse réelle!):

Les premiers développements de l'intelligence artificielle remontent aux années 1940-1950, avec des travaux fondateurs comme le concept de la "machine de Turing" d'Alan Turing, et la publication de l'article "A Logical Calculus of Ideas Immanent in Nervous Activity" par Warren McCullough et Walter Pitts en 1943.
Non, on parle ici d'informatique et non pas d'IA... Pourquoi est-ce que l'IA répond une telle connerie? Tout simplement parce que le plus grand nombre, les médias en premier, ne parle plus d'informatique, le terme "IA" est mis à toutes les sauces... Il suffit de parler d'un algorithme quelconque pour y voir de l'IA...

L'IA ne pense pas, ne réfléchit pas, n'invente pas et elle ne le fera jamais! L'IA ne fait que collecter des données pour les agglomérer et en faire un résumé... D'où le grand n'importe quoi! Les commerciaux ont beau faire filtrer les réponse de l'IA pour en améliorer le résultat, l'IA continuera à fournir inlassablement de nouvelles inepties qu'il faudra filtrer à postériori

Au final, l'IA au même titre que la voiture autonome est une immense supercherie, l'une comme l'autre ne peuvent pas être fiables à cause de leur nature même... Un poisson, cela ne vole pas dans les airs même si comme disait le parolier de film Michel Audiard: "Il existe des patrons de gauche... Il existe aussi des poissons volants, mais ils ne constituent pas la majorité du genre!"

Oui, l'IA pourra créer des images du pape en doudoune blanche (parce que cette tâche se base sur une collecte de données existantes), mais je vous conseille de ne jamais prendre un avion qui serait piloter par une IA...
5  0 
Avatar de shenron666
Expert confirmé https://www.developpez.com
Le 26/07/2025 à 19:47
Le terme IA utilisé aujourd'hui est une prostitution de ce qu'est réellement l'IA.
L'IA par ci, l'IA par là, il n'est question que de LLM, aucunement d'intelligence.
et les utilisateurs de ces technologies qui s'en servent aveuglément et sans compétence ne font pas plus preuve d'intelligence

mon avis rejoint blaizeisdead
les agents LLM sont plus proches du stagiaire à qui l'on délègue une tâche simple et précise, fastidieuse, dont il faut systématiquement vérifier le résultat
contrairement à une secrétaire en qui l'on accorde notre confiance
mal utilisé, les LLM peuvent faire perdre un temps monstre
5  0 
Avatar de RenarddeFeu
Membre averti https://www.developpez.com
Le 01/04/2025 à 11:33
Le problème du développement moderne sont surtout les surcouches de complexité totalement gadget : user access management, cloud, WebApps, SGBD, externalisation, management de projet, planning, gestion des budgets et maintenant IA.

À l'heure où les entreprises cherchent à rationaliser leurs dépenses IT, elles vont plutôt demander au gros Dédé de la compta de sortir la feuille Excel/VBA qui va bien. Et c'est sans compter son jeune apprenti Jean-Kévin qui a appris le Python à l'école, avec son framework C autrement plus puissant.

Alors non, ils n'auront jamais le niveau de développeurs "pros". Sauf qu'ils s'épargnent toutes les surcouches de complexité évoquées au premier paragraphe, si bien qu'ils arrivent à rivaliser en terme de qualité de travail produit.
4  0 
Avatar de gabi7756
Membre confirmé https://www.developpez.com
Le 23/07/2025 à 12:06
Après dans la mesure du possible,
Généralement quand tu fais un delete sur du contenu sensible tu fais d'abord un select au préalable, ca prend quoi ?

Genre 10 sec de plus si tu as une antiquité.
4  0