IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les agents IA « de niveau doctoral » d'OpenAI : une promesse à 20 000 dollars par mois sous le feu des critiques,
L'approche repose sur la promesse d'une IA capable de rivaliser avec des experts humains

Le , par Bruno

38PARTAGES

5  0 
Les agents IA « de niveau doctoral » d’OpenAI : une promesse à 20 000 dollars par mois sous le feu des critiques,
l'approche repose sur la promesse d’une IA capable de rivaliser avec des experts humains

L’annonce par OpenAI d’agents d’IA dits « de niveau doctoral », proposés à des tarifs exorbitants allant jusqu’à 20 000 dollars par mois, suscite des interrogations et des critiques quant à leur réelle valeur ajoutée. Cette approche repose sur la promesse d’une intelligence artificielle capable de rivaliser avec des experts humains dans des domaines nécessitant une formation avancée. Cependant, une analyse critique montre que ces affirmations doivent être nuancées.

D’un point de vue économique, plusieurs observateurs relèvent que pour un coût équivalent, il serait possible d’embaucher plusieurs doctorants ou post-doctorants humains, dont les capacités d’innovation et de réflexion critique surpasseraient celles d’un modèle de langage. Le prix avancé semble donc démesuré par rapport aux alternatives humaines. De plus, certains estiment que ce tarif est un « ancrage psychologique », destiné à donner l’illusion d’une réduction future des coûts qui resterait néanmoins bien au-dessus des salaires universitaires actuels. Par ailleurs, au-delà de la question du coût, les performances réelles de ces agents soulèvent des doutes.



A côté du projet d’IA dits « de niveau doctoral », d’autres formules seraient également prévues, notamment un assistant pour les « travailleurs du savoir à haut revenu » à 2 000 dollars par mois et un agent dédié au développement logiciel à 10 000 dollars par mois. Bien qu’OpenAI n’ait pas encore confirmé ces tarifs, l’entreprise a déjà évoqué des capacités d’IA dites « de niveau doctoral ».

Cette expression, IA dits « de niveau doctoral », désigne des modèles conçus pour accomplir des tâches nécessitant une expertise avancée, telles que la conduite de recherches complexes, la rédaction et le débogage de code sans intervention humaine, ou encore l’analyse de vastes ensembles de données pour produire des rapports détaillés. L’argument central avancé est que ces modèles seraient capables de résoudre des problèmes habituellement réservés à des spécialistes formés pendant plusieurs années à l’université.

OpenAI et la promesse d’une IA qui réfléchit

La dernière avancée d’OpenAI dans ce domaine repose sur ses modèles o3 et o3-mini, dévoilés en décembre. Ces modèles sont une évolution de la série o1, lancée au début de l’année précédente. Tout comme leurs prédécesseurs, ils exploitent ce qu’OpenAI désigne sous le nom de « chaîne de pensée privée », une méthode de raisonnement simulé où le modèle procède par un dialogue interne et affine progressivement ses réponses avant de les fournir.

Cette approche vise à imiter le processus de réflexion des chercheurs humains, qui prennent le temps d’analyser des problèmes complexes plutôt que de répondre instantanément. Selon OpenAI, plus le modèle consacre de temps à ce processus d’inférence, plus la qualité des réponses s’améliore. En d’autres termes, un abonnement à 20 000 dollars par mois offrirait aux utilisateurs un accès étendu à cette capacité de réflexion approfondie pour résoudre des problématiques complexes.

Selon OpenAI, le modèle o3 a établi un record au test de raisonnement visuel ARC-AGI, atteignant un score de 87,5 % dans les évaluations de calcul intensif, un niveau comparable à la performance humaine, estimée à 85 %. Il a également obtenu un score de 96,7 % à l'American Invitational Mathematics Exam 2024, ne commettant qu’une seule erreur, et affiché un résultat de 87,7 % au GPQA Diamond, un test couvrant des questions avancées en biologie, physique et chimie.

Par ailleurs, lors de l’évaluation Frontier Math d’EpochAI, o3 a résolu 25,2 % des problèmes, alors qu’aucun autre modèle n’avait jusqu’ici dépassé les 2 %. Cette performance suggère une nette progression dans les capacités de raisonnement mathématique par rapport aux générations précédentes.

Malgré leurs succès dans certains benchmarks académiques, ces modèles restent vulnérables aux hallucinations, aux erreurs de raisonnement et aux biais inhérents aux sources qu’ils exploitent. Or, un doctorat ne se limite pas à la restitution d’informations : il implique une démarche critique, une capacité à générer de nouvelles idées et une compréhension approfondie des méthodologies de recherche. Sans une amélioration significative de la traçabilité des sources et de la fiabilité des réponses, ces systèmes risquent de produire des résultats superficiels et parfois erronés.

D’autres critiques s’attaquent à l’absence d’humanité des agents d’IA, perçue comme un avantage par certaines entreprises : pas de congés, pas de revendications salariales, pas de syndicalisation. Si cette automatisation pourrait séduire les employeurs soucieux de réduire leurs coûts opérationnels, elle soulève des questions éthiques et sociales quant à l’impact sur le marché du travail et la reconnaissance de l’expertise humaine.

Enfin, l’idée même d’un « niveau doctoral » appliqué à une IA semble avant tout relever du marketing. Bien que ces modèles puissent exceller dans la synthèse rapide de données ou l’exécution de tâches spécifiques, ils restent limités dans leur capacité à générer des avancées scientifiques significatives. Comme le souligne un commentateur, un doctorat ne garantit pas une intelligence supérieure, mais il témoigne d’une ténacité et d’une approche méthodique que l’IA, malgré ses avancées, peine encore à reproduire.

Un doctorant coûte moins cher qu’une IA

Dans l’idéal, un modèle d’IA véritablement équivalent à un doctorant pourrait être utilisé pour analyser des données de recherche médicale, modéliser des phénomènes climatiques ou encore automatiser certaines tâches répétitives du travail scientifique. Si les tarifs élevés rapportés par The Information se confirment, cela indiquerait qu’OpenAI estime que ces systèmes apportent une valeur significative aux entreprises. D’ailleurs, l’article souligne que SoftBank, investisseur d’OpenAI, prévoit de dépenser 3 milliards de dollars cette année pour les produits d’agent d’OpenAI, ce qui témoigne d’un intérêt marqué malgré les coûts.

Par ailleurs, OpenAI fait face à des pressions financières susceptibles d’influencer sa stratégie tarifaire. L’entreprise aurait enregistré une perte de près de 5 milliards de dollars l’an dernier pour couvrir ses coûts opérationnels et autres dépenses liées à l’infrastructure.

L’annonce de ces prix exorbitants intervient après plusieurs années où les services d’IA sont restés relativement abordables, habituant les utilisateurs à des solutions puissantes à bas coût. ChatGPT Plus est proposé à 20 dollars par mois, Claude Pro à 30 dollars, tandis que l’abonnement à ChatGPT Pro s’élève à 200 dollars par mois, soit une fraction des nouveaux tarifs destinés aux entreprises. Reste à voir si l’écart de performances entre ces différentes offres justifie une multiplication des prix par un facteur de mille.

Malgré leurs performances sur des benchmarks spécifiques, ces modèles d’IA souffrent encore de confabulations, générant parfois des informations fausses mais plausibles. Un problème majeur pour des domaines où l’exactitude est cruciale. Dès lors, investir 20 000 dollars par mois pose la question de la fiabilité de ces systèmes pour des recherches à fort enjeu.

Cette annonce a également suscité des réactions sur les réseaux sociaux, certains soulignant qu’un doctorant coûterait bien moins cher. Hieu Pham, développeur chez xAI, a notamment tweeté : « Au cas où vous l’auriez oublié, la plupart des doctorants, y compris les plus brillants capables d’un bien meilleur travail que n’importe quel LLM actuel, ne gagnent pas 20 000 dollars par mois. »

Bien que ces modèles démontrent des performances impressionnantes sur certains tests, l’étiquette « niveau doctoral » semble avant tout un argument marketing. Certes, ces IA peuvent traiter et synthétiser des données à une vitesse inégalée, mais leur capacité à faire preuve de créativité, de scepticisme intellectuel et à mener des recherches originales reste incertaine. En revanche, elles n’ont ni besoin de repos ni d’assurance santé et continueront probablement à progresser tout en réduisant leurs coûts à l’avenir.

DeepSeek bouscule les pratiques d’OpenAI et menace son hégémonie

Le 20 janvier, DeepSeek, dirigé par le gestionnaire de fonds spéculatifs chinois Liang Wenfeng, a lancé son modèle d’IA DeepSeek-R1 sous une licence MIT open source. Avec sa version la plus imposante atteignant 671 milliards de paramètres, cette annonce a surpris la Silicon Valley et l’ensemble du secteur de l’IA. Selon un document interne de l’entreprise, DeepSeek-R1 surpasse les principaux modèles du marché, comme OpenAI o1, sur plusieurs benchmarks mathématiques et de raisonnement.

Sur des critères clés tels que les performances, les coûts et l’ouverture, DeepSeek pose un sérieux défi aux géants occidentaux de l’IA. L’entreprise affirme avoir développé un modèle rivalisant avec o1, mais à seulement 5 % du coût. Alors qu’OpenAI facture 15 par million de jetons en entrée et 60 par million de jetons en sortie (un jeton représentant environ 4 caractères), DeepSeek propose des tarifs estimés à 0,55 et 2,19 respectivement pour les mêmes volumes. Une différence de coût qui interpelle.

Un récent rapport révèle que plusieurs entreprises, inspirées par l’approche de DeepSeek, se tournent vers des méthodes de « distillation » pour créer des modèles performants à moindre coût. Par exemple, Meta a mobilisé des équipes d’ingénieurs pour analyser DeepSeek-R1 et en tirer des enseignements pour ses propres développements futurs.

DeepSeek remet en question l’argument souvent avancé par les Big Tech selon lequel l’augmentation des dépenses garantit de meilleurs résultats pour les modèles d’IA. Bien que DeepSeek-R1 rivalise avec le modèle o1 d’OpenAI, axé sur le raisonnement, il a été développé à un coût bien inférieur, ce qui soulève des questions sur la viabilité des stratégies actuelles des géants du secteur.

Par ailleurs, l’annonce récente d’une IA facturée 20 000 $ par mois par OpenAI a suscité de vives interrogations. Les critiques s’interrogent : OpenAI a-t-il vraiment trouvé une solution aux limites de l’IA générative, comme le problème récurrent des hallucinations (réponses erronées ou inventées) ? En novembre 2024, OpenAI lui-même a publié une étude révélant que ses meilleurs modèles produisent des réponses incorrectes dans une proportion alarmante, un problème qui semble également affecter ses concurrents. Pour certains chercheurs, l’hallucination des modèles d’IA pourrait même être un défi insoluble.

Les agents d’IA « de niveau doctoral » constitueraient une promesse exagérée dont le prix resterait exorbitant

L’annonce des agents d’IA d’OpenAI à un tarif pouvant atteindre 20 000 dollars par mois suscite une critique fondée, à la fois sur leur positionnement économique et sur leur pertinence technique.

D’un point de vue financier, le coût annoncé semble disproportionné par rapport aux alternatives humaines. Pour ce montant, une entreprise pourrait recruter plusieurs doctorants ou post-doctorants dont l’expertise s’étendrait bien au-delà des capacités actuelles des modèles d’IA. Contrairement à ces derniers, les chercheurs humains possèdent non seulement une capacité de raisonnement critique, mais aussi la faculté d’interagir, de collaborer et de remettre en question leurs propres conclusions. Cela remet en cause la proposition de valeur des agents d’OpenAI, qui risquent d’être perçus davantage comme une stratégie marketing qu’une réelle avancée technologique.

En outre, certains observateurs suggèrent que ce prix pourrait servir de levier psychologique pour préparer une baisse future qui resterait néanmoins bien au-dessus des standards du marché. Une telle stratégie s’inscrit dans une logique de valorisation auprès des investisseurs, plutôt que dans une véritable justification économique.

Des performances qui ne justifient pas l’argument du « niveau doctoral »

Le terme « niveau doctoral » attribué à ces agents d’IA est largement contesté. En effet, l’obtention d’un doctorat repose non seulement sur la maîtrise d’un domaine, mais surtout sur la capacité à produire une recherche originale et à défendre ses idées face à des experts. Or, les modèles d’IA, aussi puissants soient-ils, n’ont pas encore démontré une aptitude à générer de véritables découvertes scientifiques.

De plus, les lacunes bien connues des modèles de langage, notamment en matière de fiabilité des sources et de vérification des faits, posent un problème fondamental pour des usages critiques comme la recherche scientifique. Ces IA restent sujettes aux confabulations et à la génération d’informations erronées, ce qui limite leur pertinence pour des applications exigeant une rigueur absolue. En l’état actuel, elles ne peuvent ni assurer la validation de leurs propres résultats, ni garantir une approche véritablement scientifique dans leur raisonnement.


L’un des risques majeurs soulevés est celui d’une survalorisation de ces IA au détriment de l’expertise humaine. Alors que les chercheurs humains sont capables d’adaptation, de créativité et de raisonnement nuancé, les modèles d’OpenAI se limitent à des analyses fondées sur des données existantes sans réelle compréhension contextuelle. Certaines critiques vont même jusqu’à voir dans ces agents un outil permettant aux entreprises de justifier la réduction des coûts humains en misant sur une solution moins chère mais largement inférieure en termes de compétences réelles.

En conclusion, si ces modèles représentent un pas en avant dans l’évolution des outils d’IA, leur tarification et leur positionnement comme « experts de niveau doctoral » semblent relever davantage du discours commercial que d’une avancée véritablement révolutionnaire. Tant que des progrès significatifs ne seront pas réalisés en matière de raisonnement, de vérification et d’innovation, ces IA risquent de rester davantage des outils d’appoint que de véritables substituts aux chercheurs humains.

Et vous ?

Quel est votre avis sur le sujet ?

Le tarif proposé est-il une stratégie d’ancrage psychologique pour rendre des offres futures, moins chères, plus attractives ?

Les IA « de niveau doctoral » sont-elles vraiment capables de rivaliser avec l’expertise humaine en termes de créativité, d’adaptation et de raisonnement contextuel ?

Voir aussi :

OpenAI envisagerait de facturer jusqu'à 20 000 dollars par mois l'accès à ses agents d'IA de niveau doctorat, un prix controversé en raison de l'hallucination et des nombreuses autres limites de l'IA

OpenAI lance des modèles d'IA dotés de capacités de « raisonnement » semblables à celles d'une personne, les modèles « Strawberry » peuvent décomposer des problèmes complexes en étapes logiques plus petites
Vous avez lu gratuitement 245 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de forthx
Membre éprouvé https://www.developpez.com
Le 12/03/2025 à 14:24
Quel est votre avis sur le sujet ?
Quant je vois le niveau actuel, je ne suis pas convaincu... voir j'ai du mal a voir l’intérêt.

Le tarif proposé est-il une stratégie d’ancrage psychologique pour rendre des offres futures, moins chères, plus attractives ?
Je ne sais pas le public visé ni les perf de ces outils. Par contre il y a 10 ans, au canada, un doctorant pouvais prétendre a ~2000 CAD par mois, donc je ne pense pas que ca que ca parte comme des petits pain
En france on est autour de 1500 € net il me semble.


Les IA « de niveau doctoral » sont-elles vraiment capables de rivaliser avec l’expertise humaine en termes de créativité, d’adaptation et de raisonnement contextuel ?
Alors j'ai envie de dire non, car actuellement une ia sans un humain pour la superviser ca ne marche pas vraiment.
Qui plus est, un doctorant humain a 2 000$ qui supervise une équipe d'agents IA sera probablement plus efficace et moins cher qu'un seul docteur IA a 20 000$.
Au moins pour le moment.

J'ai toujours du mal avec cette comparaison travail humain travail IA, c'est un peu comme dire qu'un tracteur est plus performent qu'un fermier... sauf que sans le fermier il va pas bouger le tracteur
2  0