
La montée en flèche des valorisations des startups spécialisées dans le codage avec des outils d'IA souligne cette dynamique. Cursor vient de lever 900 millions de dollars pour une valorisation de 9 milliards de dollars, contre 2,5 milliards de dollars au début de l'année. Entretemps, OpenAI a acquis Windsurf pour 3 milliards de dollars. Et les outils s'améliorent rapidement. Kevin Weil, directeur des produits d'OpenAI, explique lors d'une récente interview qu'il y a cinq mois à peine, le meilleur modèle de l'entreprise se classait aux alentours du millionième rang sur un critère de référence bien connu pour les codeurs compétitifs . A date, le meilleur modèle d'OpenAI, o3, se classe au 175e rang mondial des meilleurs codeurs compétitifs sur ce même test. L'amélioration rapide des performances laisse penser qu'un assistant de codage IA pourrait bientôt prendre la première place. « Les ordinateurs seront toujours meilleurs que les humains pour écrire du code », a-t-il déclaré.
OpenAI CPO, Kevin Weil:
— Haider. (@slow_developer) May 5, 2025
It's not gonna be long before... we're gonna have a model that is the best competitive coder in the world.
And forever after that point, computers will be better than humans at writing code. pic.twitter.com/vDLgb32ePI
Nikolay Savinov, chercheur chez Google DeepMind, souligne lors d'une récente interview que les outils de codage IA prendront bientôt en charge des fenêtres contextuelles de 10 millions de mots-clés et, à terme, de 100 millions. Avec une telle mémoire, un outil d'intelligence artificielle pourrait absorber de grandes quantités d'instructions humaines et même analyser la base de code existante d'une entreprise entière pour obtenir des conseils sur la manière de construire et d'optimiser de nouveaux systèmes. « J'imagine que nous arriverons très bientôt à des systèmes d'IA de codage surhumains qui seront totalement inégalés, le nouvel outil de tous les codeurs du monde », estiment certains acteurs de la filière.
DeepMind's Nikolay Savinov says 10M-token context windows will transform how AI works.
— vitrupo (@vitrupo) May 4, 2025
AI will ingest entire codebases at once, becoming "totally unrivaled… the new tool for every coder in the world."
100M is coming too -- and with it, reasoning across systems we can't yet… pic.twitter.com/ZBmKcZH7Ed
L'industrie de l'IA a néanmoins un énorme problème : plus l'IA devient « intelligente », plus elle hallucine
Les modèles d'IA récents sont basés sur des systèmes mathématiques complexes qui acquièrent leurs compétences en analysant d'énormes quantités de données numériques. Ils ne décident pas (et ne peuvent pas décider) de ce qui est vrai et de ce qui est faux. Parfois, les modèles inventent tout simplement des choses. Lors d'un test, le taux d'hallucination des nouveaux systèmes d'IA a atteint 79 %. OpenAI est notamment profondément perplexe à ce sujet.
Un document technique publié par OpenAI révèle que ses modèles o3 et o4-mini hallucinent plus souvent que les précédents modèles axés sur le raisonnement (o1, o1-mini et o3-mini) et plus que ses modèles traditionnels qui ne sont pas dotés de la capacité de raisonnement, tels que GPT-4 et GPT-4o.
Plus inquiétant encore, OpenAI ne sait pas pourquoi cela se produit. Ce phénomène est inhabituel, car, jusqu'à présent, les nouveaux modèles ont tendance à moins halluciner à mesure que la technologie d'IA sous-jacente s'améliore. OpenAI indique que « des recherches supplémentaires sont nécessaires » pour comprendre pourquoi les hallucinations s'aggravent au fur et à mesure que les modèles de raisonnement évoluent. Voici les résultats des tests :
- o3 hallucine dans 33 % des cas sur le benchmark interne d'OpenAI appelé PersonQA ;
- o4-mini atteint un taux de 48 %, soit près d'une réponse sur deux incorrecte ;
- en comparaison, les modèles précédents comme o1 et o3-mini affichaient des taux respectifs de 16 % et 14,8 %.
L'enjeu est d'autant plus important que les entreprises continuent de consacrer des dizaines de milliards de dollars à la mise en place d'infrastructures sophistiquées pour des modèles d'IA axés sur le raisonnement de plus en plus puissants. Le problème est si répandu qu'il existe des entreprises qui se consacrent à aider les entreprises à surmonter les hallucinations. Les hallucinations réduisent considérablement la valeur de la technologie de l'IA générative.
« Ne pas traiter ces erreurs correctement élimine fondamentalement la valeur des systèmes d'IA », a déclaré Pratik Verma, cofondateur d'Okahu, une société de conseil qui aide les entreprises à mieux utiliser l'IA. Il est également important de souligner que les derniers modèles d'IA de Google et ceux de la startup chinois DeepSeek subissent le même sort que les derniers systèmes d'OpenAI, ce qui indique qu'il s'agit d'un problème à l'échelle de l'industrie.
L'hallucination est un terme élégant et pratique que l'industrie utilise pour désigner les « informations » que les grands modèles de langage (LLM) inventent de toute...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.