IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Quelles évolutions du métier de développeur à prévoir au vu des évolutions des IA
Comme Cursor ou Windsurf qui mènent désormais des projets logiciels avec un minimum d'intervention d'ingénieurs humains ?

Le , par Patrick Ruiz

27PARTAGES

6  0 
Des rapports font état de ce que des outils tels que Cursor et Windsurf peuvent désormais mener à bien des projets logiciels avec un minimum de contribution ou de supervision de la part d'ingénieurs humains. Une enquête GitHub réalisée en 2024 a révélé que plus de 97 % des développeurs ont utilisé des outils de codage de l'IA au travail, et que 30 à 40 % des organisations encouragent activement leur adoption. Le PDG de Microsoft, Satya Nadella, a récemment déclaré que l'IA écrit désormais jusqu'à 30 % du code de l'entreprise. Le PDG de Google, Sundar Pichai, a fait écho à ce sentiment, notant que plus de 30 % du nouveau code de Google est généré par l'intelligence artificielle. Grosso modo, le tableau est de nature à soulever des questionnements sur les possibles évolutions du métier de développeur et ce, dans un contexte où l’industrie fait face à un mur : l’IA évolue et hallucine de plus en plus.

La montée en flèche des valorisations des startups spécialisées dans le codage avec des outils d'IA souligne cette dynamique. Cursor vient de lever 900 millions de dollars pour une valorisation de 9 milliards de dollars, contre 2,5 milliards de dollars au début de l'année. Entretemps, OpenAI a acquis Windsurf pour 3 milliards de dollars. Et les outils s'améliorent rapidement. Kevin Weil, directeur des produits d'OpenAI, explique lors d'une récente interview qu'il y a cinq mois à peine, le meilleur modèle de l'entreprise se classait aux alentours du millionième rang sur un critère de référence bien connu pour les codeurs compétitifs . A date, le meilleur modèle d'OpenAI, o3, se classe au 175e rang mondial des meilleurs codeurs compétitifs sur ce même test. L'amélioration rapide des performances laisse penser qu'un assistant de codage IA pourrait bientôt prendre la première place. « Les ordinateurs seront toujours meilleurs que les humains pour écrire du code », a-t-il déclaré.



Nikolay Savinov, chercheur chez Google DeepMind, souligne lors d'une récente interview que les outils de codage IA prendront bientôt en charge des fenêtres contextuelles de 10 millions de mots-clés et, à terme, de 100 millions. Avec une telle mémoire, un outil d'intelligence artificielle pourrait absorber de grandes quantités d'instructions humaines et même analyser la base de code existante d'une entreprise entière pour obtenir des conseils sur la manière de construire et d'optimiser de nouveaux systèmes. « J'imagine que nous arriverons très bientôt à des systèmes d'IA de codage surhumains qui seront totalement inégalés, le nouvel outil de tous les codeurs du monde », estiment certains acteurs de la filière.



L'industrie de l'IA a néanmoins un énorme problème : plus l'IA devient « intelligente », plus elle hallucine

Les modèles d'IA récents sont basés sur des systèmes mathématiques complexes qui acquièrent leurs compétences en analysant d'énormes quantités de données numériques. Ils ne décident pas (et ne peuvent pas décider) de ce qui est vrai et de ce qui est faux. Parfois, les modèles inventent tout simplement des choses. Lors d'un test, le taux d'hallucination des nouveaux systèmes d'IA a atteint 79 %. OpenAI est notamment profondément perplexe à ce sujet.

Un document technique publié par OpenAI révèle que ses modèles o3 et o4-mini hallucinent plus souvent que les précédents modèles axés sur le raisonnement (o1, o1-mini et o3-mini) et plus que ses modèles traditionnels qui ne sont pas dotés de la capacité de raisonnement, tels que GPT-4 et GPT-4o.

Plus inquiétant encore, OpenAI ne sait pas pourquoi cela se produit. Ce phénomène est inhabituel, car, jusqu'à présent, les nouveaux modèles ont tendance à moins halluciner à mesure que la technologie d'IA sous-jacente s'améliore. OpenAI indique que « des recherches supplémentaires sont nécessaires » pour comprendre pourquoi les hallucinations s'aggravent au fur et à mesure que les modèles de raisonnement évoluent. Voici les résultats des tests :

  • o3 hallucine dans 33 % des cas sur le benchmark interne d'OpenAI appelé PersonQA ;
  • o4-mini atteint un taux de 48 %, soit près d'une réponse sur deux incorrecte ;
  • en comparaison, les modèles précédents comme o1 et o3-mini affichaient des taux respectifs de 16 % et 14,8 %.


L'enjeu est d'autant plus important que les entreprises continuent de consacrer des dizaines de milliards de dollars à la mise en place d'infrastructures sophistiquées pour des modèles d'IA axés sur le raisonnement de plus en plus puissants. Le problème est si répandu qu'il existe des entreprises qui se consacrent à aider les entreprises à surmonter les hallucinations. Les hallucinations réduisent considérablement la valeur de la technologie de l'IA générative.

« Ne pas traiter ces erreurs correctement élimine fondamentalement la valeur des systèmes d'IA », a déclaré Pratik Verma, cofondateur d'Okahu, une société de conseil qui aide les entreprises à mieux utiliser l'IA. Il est également important de souligner que les derniers modèles d'IA de Google et ceux de la startup chinois DeepSeek subissent le même sort que les derniers systèmes d'OpenAI, ce qui indique qu'il s'agit d'un problème à l'échelle de l'industrie.


L'hallucination est un terme élégant et pratique que l'industrie utilise pour désigner les « informations » que les grands modèles de langage (LLM) inventent de toute...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !