IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Quelles évolutions du métier de développeur à prévoir au vu des évolutions des IA
Comme Cursor ou Windsurf qui mènent désormais des projets logiciels avec un minimum d'intervention d'ingénieurs humains ?

Le , par Patrick Ruiz

48PARTAGES

6  0 
Quelles évolutions du métier de développeur à prévoir au vu des évolutions des IA
Comme Cursor ou Windsurf qui mènent désormais des projets logiciels avec un minimum d’intervention d’ingénieurs humains ?

Des rapports font état de ce que des outils tels que Cursor et Windsurf peuvent désormais mener à bien des projets logiciels avec un minimum de contribution ou de supervision de la part d'ingénieurs humains. Une enquête GitHub réalisée en 2024 a révélé que plus de 97 % des développeurs ont utilisé des outils de codage de l'IA au travail, et que 30 à 40 % des organisations encouragent activement leur adoption. Le PDG de Microsoft, Satya Nadella, a récemment déclaré que l'IA écrit désormais jusqu'à 30 % du code de l'entreprise. Le PDG de Google, Sundar Pichai, a fait écho à ce sentiment, notant que plus de 30 % du nouveau code de Google est généré par l'intelligence artificielle. Grosso modo, le tableau est de nature à soulever des questionnements sur les possibles évolutions du métier de développeur et ce, dans un contexte où l’industrie fait face à un mur : l’IA évolue et hallucine de plus en plus.

La montée en flèche des valorisations des startups spécialisées dans le codage avec des outils d'IA souligne cette dynamique. Cursor vient de lever 900 millions de dollars pour une valorisation de 9 milliards de dollars, contre 2,5 milliards de dollars au début de l'année. Entretemps, OpenAI a acquis Windsurf pour 3 milliards de dollars. Et les outils s'améliorent rapidement. Kevin Weil, directeur des produits d'OpenAI, explique lors d'une récente interview qu'il y a cinq mois à peine, le meilleur modèle de l'entreprise se classait aux alentours du millionième rang sur un critère de référence bien connu pour les codeurs compétitifs . A date, le meilleur modèle d'OpenAI, o3, se classe au 175e rang mondial des meilleurs codeurs compétitifs sur ce même test. L'amélioration rapide des performances laisse penser qu'un assistant de codage IA pourrait bientôt prendre la première place. « Les ordinateurs seront toujours meilleurs que les humains pour écrire du code », a-t-il déclaré.



Nikolay Savinov, chercheur chez Google DeepMind, souligne lors d'une récente interview que les outils de codage IA prendront bientôt en charge des fenêtres contextuelles de 10 millions de mots-clés et, à terme, de 100 millions. Avec une telle mémoire, un outil d'intelligence artificielle pourrait absorber de grandes quantités d'instructions humaines et même analyser la base de code existante d'une entreprise entière pour obtenir des conseils sur la manière de construire et d'optimiser de nouveaux systèmes. « J'imagine que nous arriverons très bientôt à des systèmes d'IA de codage surhumains qui seront totalement inégalés, le nouvel outil de tous les codeurs du monde », estiment certains acteurs de la filière.



L'industrie de l'IA a néanmoins un énorme problème : plus l'IA devient « intelligente », plus elle hallucine

Les modèles d'IA récents sont basés sur des systèmes mathématiques complexes qui acquièrent leurs compétences en analysant d'énormes quantités de données numériques. Ils ne décident pas (et ne peuvent pas décider) de ce qui est vrai et de ce qui est faux. Parfois, les modèles inventent tout simplement des choses. Lors d'un test, le taux d'hallucination des nouveaux systèmes d'IA a atteint 79 %. OpenAI est notamment profondément perplexe à ce sujet.

Un document technique publié par OpenAI révèle que ses modèles o3 et o4-mini hallucinent plus souvent que les précédents modèles axés sur le raisonnement (o1, o1-mini et o3-mini) et plus que ses modèles traditionnels qui ne sont pas dotés de la capacité de raisonnement, tels que GPT-4 et GPT-4o.

Plus inquiétant encore, OpenAI ne sait pas pourquoi cela se produit. Ce phénomène est inhabituel, car, jusqu'à présent, les nouveaux modèles ont tendance à moins halluciner à mesure que la technologie d'IA sous-jacente s'améliore. OpenAI indique que « des recherches supplémentaires sont nécessaires » pour comprendre pourquoi les hallucinations s'aggravent au fur et à mesure que les modèles de raisonnement évoluent. Voici les résultats des tests :

  • o3 hallucine dans 33 % des cas sur le benchmark interne d'OpenAI appelé PersonQA ;
  • o4-mini atteint un taux de 48 %, soit près d'une réponse sur deux incorrecte ;
  • en comparaison, les modèles précédents comme o1 et o3-mini affichaient des taux respectifs de 16 % et 14,8 %.


L'enjeu est d'autant plus important que les entreprises continuent de consacrer des dizaines de milliards de dollars à la mise en place d'infrastructures sophistiquées pour des modèles d'IA axés sur le raisonnement de plus en plus puissants. Le problème est si répandu qu'il existe des entreprises qui se consacrent à aider les entreprises à surmonter les hallucinations. Les hallucinations réduisent considérablement la valeur de la technologie de l'IA générative.

« Ne pas traiter ces erreurs correctement élimine fondamentalement la valeur des systèmes d'IA », a déclaré Pratik Verma, cofondateur d'Okahu, une société de conseil qui aide les entreprises à mieux utiliser l'IA. Il est également important de souligner que les derniers modèles d'IA de Google et ceux de la startup chinois DeepSeek subissent le même sort que les derniers systèmes d'OpenAI, ce qui indique qu'il s'agit d'un problème à l'échelle de l'industrie.


L'hallucination est un terme élégant et pratique que l'industrie utilise pour désigner les « informations » que les grands modèles de langage (LLM) inventent de toute pièce et présentent souvent comme des faits. À en juger par la trajectoire des tout derniers modèles axés sur le raisonnement, conçus pour « réfléchir » à un problème avant d'y répondre, le problème s'aggrave, au lieu de s'améliorer. Les modèles de dernière génération hallucinent beaucoup plus.

Cette tendance inquiétante remet en cause l'hypothèse générale du secteur selon laquelle « les modèles d'IA deviendront plus puissants et plus fiables au fur et à mesure de leur puissance augmente ». Ce phénomène pourrait avoir des conséquences dangereuses pour les utilisateurs individuels et les entreprises.

Le mois dernier, un robot d'IA qui assure l'assistance technique pour Cursor, un outil en plein essor destiné aux programmeurs informatiques, a alerté plusieurs clients d'un changement dans la politique de l'entreprise. Il leur a indiqué qu'ils n'étaient plus autorisés à utiliser Cursor sur plus d'un ordinateur. Les clients se sont plaints en envoyant des messages de colère sur des forums de discussion sur Internet. Certains ont annulé leur abonnement à Cursor.

Ils sont devenus encore plus furieux lorsqu'ils ont compris ce qui s'était passé : le robot d'IA avait annoncé un changement de politique qui n'existait pas. « Nous n'avons pas de politique en la matière. Vous êtes bien sûr libre d'utiliser Cursor sur plusieurs machines. Malheureusement, il s'agit d'une réponse erronée de la part d'un bot d'assistance en IA de première ligne », a expliqué Michael Truell, PDG et cofondateur de l'entreprise, dans un billet sur Reddit.

Et vous ?

Quelles évolutions du métier de développeur peut-on prévoir au vu des évolutions des IA et de l’hallucination des modèles ?
Que pensez-vous du problème de l'hallucination des modèles ?
Que pensez-vous de l'augmentation du taux d'hallucination des modèles o3 et o4-mini d'OpenAI ?
Le taux d'hallucination grimpe à mesure que les modèles axés sur le raisonnement évoluent. Qu'en pensez-vous ?
Certains chercheurs en IA affirment que les hallucinations ne pourront pas être éliminées entièrement. Qu'en pensez-vous ?
Les hallucinations remettent en cause la précision et la fiabilité des outils d'IA générative. Que pensez-vous de l'utilité de ces outils d'IA ?

Voir aussi :

OpenAI est perplexe parce que ses nouveaux modèles o3 et o4-mini affichent des taux d'hallucination nettement plus élevés que les modèles précédents, ce qui réduit la précision et la fiabilité de ces modèles

Les outils d'IA de codage inventent des noms de paquets inexistants qui menacent la chaîne d'approvisionnement en logiciels : les attaquants publient des paquets malveillants avec ces noms sur npm ou PyPI

Les LLM IA auront toujours des hallucinations, et nous devons nous en accommoder, car les hallucinations découlent de la structure mathématique et logique fondamentale des LLM, selon une étude
Vous avez lu gratuitement 129 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Artaeus
Nouveau Candidat au Club https://www.developpez.com
Le 06/06/2025 à 13:56
Drôle d'époque où ce sont les entreprises privés qui défendent nos intérêts face aux délires étatiques de surveillance globale ...
On le voit en France aussi avec l'interdiction puritaine du porn par le gouv (en se servant des enfants comme prétexte bidon).
2  0 
Avatar de Axel Mattauch
Membre averti https://www.developpez.com
Le 25/06/2025 à 12:50
Peut-on promettre aux utilisateurs un véritable droit à l’effacement quand des obligations judiciaires peuvent en suspendre l'exécution ?
Qui joue le plus à la vierge effarouchée?

En s’offusquant de se soumettre à une "obligation de conservation" les GAFAM & assimilés ne cherchent pas à préserver le quidam d'intrusion dans la sphère privée, puisque cette intrusion est le fond de commerce même desdites compagnies. Ce qu'elles veulent c'est pouvoir garder ce qu'elles veulent (y compris tout) sans qu'aucune juridiction ne puisse intervenir.

Le droit à l'effacement est du doux pipotage, quand c'est proclamé par les vampires de data.
2  0 
Avatar de JPLAROCHE
Membre expérimenté https://www.developpez.com
Le 14/05/2025 à 15:57
Bonjour, c'est une mauvaise passe, tout comme les logiciels avant 2000, il faisait papa mama, avec 10000 lignes pour une fonction large, alors qu'avec 400 ligne, on avait la même chose, et on en est revenu, alors l'écriture des programmes ou tout se fait tout seul là, je veux voir, car j'ai essayé, mais sur la discutions ok, mais dans les faits non et non, il invente du code, en plus qui bien sûr qui ne fonctionne pas, il faut bien lui dire et lui faire comprendre ce que vous voulez!!!!! là aussi, il y a de quoi à redire.

Ne pensez pas que je suis contre l'IA, au contraire, mais attendre qu'il vous taille un costume sur mesure qui fasse que votre entreprise soit performante, là, il y a du mouron à se faire.
0  0 
Avatar de vicolachips44
Futur Membre du Club https://www.developpez.com
Le 21/05/2025 à 19:05
Je m'imagine à être embarqué sur la TMA d'un logiciel vibe codé...Le cauchemar Maintenant c'est vrai que je me fais du soucis pour l'avenir des "dev" au regard de tous ces outils (mais on y est pas encore effectivement).
0  0 
Avatar de eddy72
Membre régulier https://www.developpez.com
Le 25/06/2025 à 11:23
Et porté dans le droit Français, ça donne quoi ?
0  0 
Avatar de J_P_P
Membre régulier https://www.developpez.com
Le 25/06/2025 à 19:23
La justice veut tout savoir, les pirates aussi ... toute conservation de données personnelles, telles des conversations,
même avec Chatgpt, doit être prohibée.
0  0