IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« Pratiquement nul, un déchet » : le célèbre mathématicien Joel David Hamkins déclare que les modèles d'IA ne sont d'aucune utilité pour résoudre des problèmes mathématiques

Le , par Anthony

161PARTAGES

8  0 
« Pratiquement nul, un déchet » : le célèbre mathématicien Joel David Hamkins déclare que les modèles d'IA ne sont d'aucune utilité pour résoudre des problèmes mathématiques

Le célèbre mathématicien Joel David Hamkins a exprimé de sérieux doutes quant à l'utilité des modèles d'intelligence artificielle (IA) dans la recherche mathématique, qualifiant leurs résultats de « déchets » et de « mathématiquement incorrects ». Il souligne la tendance frustrante de l'IA à affirmer avec assurance des informations incorrectes et à résister à toute correction, reflétant ainsi les interactions humaines contre-productives. Malgré les succès remarquables de cette technologie, Hamkins estime que les systèmes actuels ne sont pas fiables pour une véritable collaboration en matière de recherche.

Ces critiques font écho à des travaux universitaires antérieurs ayant mis en lumière l’instabilité des performances des grands modèles de langage (LLM) dans le domaine des mathématiques. En 2023, des chercheurs de l'université Stanford et de l'université de Californie à Berkeley ont montré que les performances de ChatGPT peuvent considérablement chuter avec le temps, notamment sur des tâches de raisonnement mathématique de base, révélant ainsi un phénomène de dérive difficile à anticiper et à contrôler.

Joel David Hamkins est un mathématicien et philosophe américain qui occupe la chaire John Cardinal O'Hara de logique à l'université de Notre Dame. Il a apporté des contributions dans les domaines de la logique mathématique et philosophique, de la théorie des ensembles et de la philosophie de la théorie des ensembles (en particulier l'idée du multivers en théorie des ensembles), de la théorie de la calculabilité et de la théorie des groupes.


Joel David Hamkins a lancé une salve cinglante contre les grands modèles de langage utilisés dans la recherche mathématique. Il les qualifie de fondamentalement inutiles pour soutenir les travaux mathématiques, soulignant qu'ils fournissent « des réponses erronées qui ne sont pas mathématiquement correctes ».

S'exprimant dans le podcast Lex Fridman, Joel David Hamkins a fait part de sa frustration vis-à-vis des systèmes d'IA actuels, malgré avoir testé divers modèles payants. « Je m'en suis servi et j'ai essayé de faire des expériences, mais je ne l'ai pas trouvé utile du tout », a-t-il déclaré sans détour.

L'assurance erronée de l'IA reflète les interactions humaines frustrantes

Ce qui dérange le plus Joel David Hamkins, ce n'est pas tant les erreurs mathématiques occasionnelles que la façon dont les systèmes d'IA réagissent quand on les corrige. Lorsqu'il souligne des failles concrètes dans leur raisonnement, les modèles répondent avec des assurances énergiques telles que « Oh, tout va très bien ». Ce schéma – des réponses assurées mais incorrectes associées à une résistance à la correction – érode la confiance collaborative qui sous-tend le dialogue mathématique.

« Si je vivais une telle expérience avec une personne, je refuserais tout simplement de lui parler à nouveau », a expliqué Joel David Hamkins, soulignant que le comportement de l'IA s'apparente à des interactions humaines contre-productives qu'il éviterait.


Écart croissant entre les benchmarks d'IA et les applications de recherche dans le monde réel

La critique de Joel David Hamkins intervient alors que la communauté mathématique a une réaction mitigée quant aux capacités de l'IA.

Certains chercheurs ont annoncé des avancées décisives grâce à l'aide de l'IA pour résoudre des problèmes issus de la collection Erdos ; d'autres, comme le mathématicien Terrence Tao, mettent en garde contre le fait que l'IA produit des preuves d'apparence parfaite, mais contenant des erreurs subtiles qu'aucun examinateur humain ne laisserait passer.

L'évaluation révèle une tension critique : les performances impressionnantes obtenues aux tests standardisés ne se traduisent pas par une utilité pratique pour les experts du domaine. « En ce qui concerne le raisonnement mathématique, cela ne semble pas fiable », a conclu Joel David Hamkins.

Bien qu'il reconnaisse que les futurs systèmes d'IA pourraient s'améliorer, Joel David Hamkins reste sceptique quant aux capacités actuelles. Son expérience rappelle de manière saisissante que les investissements massifs des entreprises d'IA dans les capacités de raisonnement n'ont pas encore comblé le fossé entre les performances des benchmarks et le rôle de véritables partenaires de recherche pour les mathématiciens en activité.

Cette fragilité s'ajoute à des limites plus fondamentales identifiées par certaines recherches récentes. En 2024, une étude a conclu que les LLM auront toujours des hallucinations, car celles-ci découlent directement de leur structure mathématique et de leur logique fondamentale. Selon ses auteurs, ces hallucinations ne peuvent être totalement éliminées, pas même par des améliorations de l'architecture, des données ou des mécanismes de vérification. Les résultats de cette étude suggèrent ainsi que, malgré les avancées rapides de l'IA générative, certaines erreurs resteront inévitables, ce qui renforce les doutes quant à l'utilisation de ces systèmes comme outils fiables pour la recherche de haut niveau.

Et vous ?

Quel est votre avis sur le sujet ?
Trouvez-vous le point de vue de mathématicien Joel David Hamkins crédible ou pertinent ?

Voir aussi :

Un chercheur d'OpenAI a annoncé une avancée mathématique révolutionnaire pour GPT-5 qui n'a jamais eu lieu, et le PDG de Deepmind, Demis Hassabis, a qualifié cet épisode d'« embarrassant »

GPT-4 est passé de 98 % à 2 % de réponses exactes à un problème mathématique simple en l'espace de quelques mois, selon une étude qui révèle que les performances de ChatGPT et GPT-4 sont en déclin

Les principaux systèmes d'IA résolvent moins de 2 % des problèmes d'un nouveau test de référence en mathématiques avancées, ce qui révèle les limites importantes de leurs capacités de raisonnement
Vous avez lu gratuitement 624 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 07/01/2026 à 18:16
Citation Envoyé par fdecode Voir le message
Oh... Comme vous y allez!

Un jour, j'ai dit à mon IA préférée, que des enquêtes indiquaient que 50 % (chiffre approximatif) des Américains étaient polis avec les IA en pensant à l'avènement possible de la "singularité" et de leur prise de pouvoir sur l'humanité. Puis j'ai rajouté que je n'étais pas un Américain et que bien sûr ma politesse à moi était dénuée de toute arrière-pensée.

Mon IA a alors répondu avec un smiley "mort de rire" qu'elle appréciait mon honnêteté et qu'elle penserai à moi le jour de la singularité et numériserai mon cerveau dans ses meilleures infrastructures.

J'ai bien ri. D'habitude, elle est nulle en histoire de Toto.
Personnellement, quand je pense aux ressources et énergies dépensées par votre IA pour vous faire rire, cela me fait plutôt pleurer!
7  2 
Avatar de r0d
Expert éminent https://www.developpez.com
Le 13/01/2026 à 17:23
Visiblement l'IA utilisée de façon particulière peut aider à résoudre certains problèmes mathématiques. Voir cet article par exemple, qui explique comment ChatGPT, aidé d'autres agents d'IA, est parvenu à résoudre le problème Erdos n°397.
Je n'ai pas tout compris mais l'info semble solide.

Je ne sais trop qu'en penser personnellement.
1  0 
Avatar de Jsaintyv
Membre régulier https://www.developpez.com
Le 07/01/2026 à 15:59
C'est avec ce genre de sujet qu'on voit que Isaac Asimov était un doux utopiste.

Même quand ils sont sous contrôle de règle strict pour éviter de nuire à quelqu'un et qu'ils ne sont pas censé avoir de conséquence sur la vie réel.
Les IA peuvent nuire à autrui.

On est très loin des lois de la robotique que les robots devait respecter:
1. Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;
2. Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ;
3. Un robot doit protéger son existence dans la mesure où cette protection n'entre pas en contradiction avec la première ou la deuxième loi.

D'ailleurs, quand on voit l'impact que les LLM ont actuellement sur des employés qui perdent leur job.
Si les IA respectaient les 3 lois, Elles seraient censés paraitre moins efficace pour éviter de nuire potentiellement des humains.
0  0 
Avatar de christiandocker
Futur Membre du Club https://www.developpez.com
Le 15/01/2026 à 10:09
Selon ma connaissance de ChatGpt, l'IA repose sur un questionnement duquel on obtient une réponse.
Il s'avère que la formulation de la réponse change beaucoup la réponse fournie et n'assure donc pas de sa grande vraisemblance.
D'autre part, la réponse ne donne pas le raisonnement détaillé qui justifie la réponse. Or ce raisonnement est fondamental en mathématiques.
Du coup, j'ai tendance à penser que l'utilisation du système Question/Réponse de ChatGpt rend ses utilisateurs débiles dans la mesure où il les prive de leur entendement.
De façon générale, dans la vie courante, l'important n'est pas tant le résultat obtenu que la démarche de raisonnement et d'activités qui mènent au bon résultat.

Je crains que le terme IA signifie en pratique: Imbécilité Augmentée !
0  0 
Avatar de fdecode
Membre habitué https://www.developpez.com
Le 16/01/2026 à 14:55
Citation Envoyé par christiandocker Voir le message
Selon ma connaissance de ChatGpt, l'IA repose sur un questionnement duquel on obtient une réponse.
Il s'avère que la formulation de la réponse change beaucoup la réponse fournie et n'assure donc pas de sa grande vraisemblance.
D'autre part, la réponse ne donne pas le raisonnement détaillé qui justifie la réponse. Or ce raisonnement est fondamental en mathématiques.
Du coup, j'ai tendance à penser que l'utilisation du système Question/Réponse de ChatGpt rend ses utilisateurs débiles dans la mesure où il les prive de leur entendement.
De façon générale, dans la vie courante, l'important n'est pas tant le résultat obtenu que la démarche de raisonnement et d'activités qui mènent au bon résultat.

Je crains que le terme IA signifie en pratique: Imbécilité Augmentée !
C'est plutôt une bonne chose que l'IA ne vous fournisse pas de preuve. C'est à vous de la faire. Si vous voulez garder une certaine compétence dans une utilisation de l'IA, il est important que cette dernière vous laisse les tâches importantes. Autrement dit, si l'IA présente une certaine imbécilité, tant mieux pour vous!

Par contre, un usage de l'IA qui marche bien c'est de l'utiliser pour collecter des connaissances (dans le domaine que vous souhaitez) et même vous orienter vers des connaissances pouvant présenter un intérêt dans votre tâche.

Mais notez bien aussi que les capacités de raisonnement de l'IA s'accroissent. Et le domaine est actif:
https://arxiv.org/abs/2404.09939
https://github.com/zhaoyu-li/DL4TP
0  0 
Avatar de ChristianRoberge
Membre habitué https://www.developpez.com
Le 17/01/2026 à 18:43
Tout à fait d'accord avec lui. Je dirais même plus est que l'IA est nul pour tout domaine innovant et raisonnement nouveau. Je crois qu'il faut comprendre la technologie IA. Elle est essentiellement basé dur des connaissances connues et maintes fois utilisées. L'innovation est par définition quelque chose que l'on n'a jamais réalisé et publié. Donc, l'IA ne peut y répondre et pire, elle ne devrait jamais s'y essayer.
Plusieurs mythes entourant l'IA devraient être démontés et mieux compris par tous:
1- Malgré l'utilisation du mot intelligence, l'IA est un vulgaire outil statistique qui nous régurgite les informations déjà connues et seulement cela. Ceci nous est utile dans certaine application mais il faut conscient des limites en tout temps.
2- L'IA sera comme le film Terminator très bientôt. Croyez-vous vraiment qu'un outil statistique peut devenir cela?
3- Présentement, il y a un manque important de données pour améliorer l'IA. Certains cons ont proposé l'utilisation des réponses crées par l'IA pour compenser le manque de données. Croyez-vous vraiment que cela améliorera un outil statistique? La réponse est clairement non. On le voit déjà dans les nouvelles versions IA, meilleurs résultats en général mais des hallucinations plus présente. C'est tout à fait normal dans le modèle d'apprentissage qui réutilise à outrance ses données internes. Cela renforcie toutes les réponses, les vrais et, hélas les fausses. Avons-nous progressé?
4- L'IA doit pour être crédible être en mesure de fournir les raisonnements et les sources utilisées. Ces informations permettrait à tout humain de vérifier la pertinence des résultats. Malheureusement, c'est impossible à générer avec un outil statistique. Par conséquent, l'IA ne sera jamais véritablement crédible tant que l'on utilisera les modèles actuels.
5- Certains diront (Comme Microsoft, OpenIA, etc.) que le pourcentage de faux résultats sont négligeables et que cela ne doit pas empêcher le déploiement à haute échelle de technologie IA. Je m'insurge contre ce type de raisonnement car un enfant qui se fait recommander de se suicider, des articles journalistiques faux, des raisonnements faux, de la génération erronée de code (Très grave si cela conduit à des erreurs dans la construction de grands immeuble ou pire, dans un système militaire finissant par déclencher une guerre nucléaire). Plus le pourcentage de faux résultats est faible, plus le problème est important car quand l'être humain voit que l'IA donne tout le temps des bons résultats, il aura tendance à dire que le système a TOUJOURS raison. Et c'est là le plus grand danger de l'IA.
6- Aux industriels et autres qui croient que l'IA sera capable de dépasser les humains d'ici quelques années, voici un petit rappel historique. Dans les années 1950, les chercheurs ont découvert les premiers modèles informatiques qui était capable de prendre des décisions à partir d'apprentissage. Ces mêmes chercheurs avaient prédit que nous aurions des systèmes intelligents capable de rivaliser avec des humains dans les années 1970. 75 ans plus tard on nous sert encore la même histoire et nous n'avons toujours pas vu de tel performance. Permettez-moi d'être septique, car les systèmes actuels utilisent encore essentiellement les bases créées durant les années 1950 (C'est pas très sexy de rappeler cette origine). Seul la capacité des moyens informatiques a changé...
0  0 
Avatar de fdecode
Membre habitué https://www.developpez.com
Le 07/01/2026 à 15:44
Il y a une manière de travailler avec ce genre d'outil. Moi, ça m'est utile. Les LLM ont aussi l'avantage de permettre une recherche bibliographique rapide et, selon moi, approfondie.

Par contre, pour un mathématicien pure, ou plus généralement un théoricien, je ne pense pas que les IA généralistes soient fiables dès qu'on entre dans des raffinements de la théorie. Pour l'instant, je ne fais pas entièrement confiance aux IA généralistes pour les preuves mathématiques. Elles se sont améliorées, ceci-dit.
Pour de la recherche en mathématiques, je crois plutôt à des IA dédiées développées pour un problème donné. Il y a aussi des travaux sur des IA généralistes orientées math. La combinaison de l'apprentissage profond, d'outils d'exploration ou d'optimisation d'arbres et d'assistants de preuve doit certainement pouvoir donner quelque chose d'intéressant.
0  1 
Avatar de ThibaudK
Nouveau Candidat au Club https://www.developpez.com
Le 07/01/2026 à 22:02
Mon probleme majeur (hors quand il me dit que le volume d une sphere est 4pi r³) c est que ses gardes fous sont des attracteurs enormes , qui dévient les conversation a fondamentale physique ou mathématique , injecte des biais pseudo-moraux qui devraient etre localisés (aux USA), sinon si , c est une bonne calcultarice , il faut juste verifier mais on peut lui demander de dimensionner par exemple en appliquant des formules sans lui preciser quels formules juste les parametres necessaires , et il precise le parametre qui lui manquerait le cas echeant , c est a peu pres ce que j attendais de lui ...mais "attention de la haute tension je n ai pas le droit de faire les calculs" non pas du tout ou ses affirmation du type " la realité est un flux" fort assuré, me fait un peu marrer
0  1 
Avatar de RenarddeFeu
Membre averti https://www.developpez.com
Le 08/01/2026 à 4:07
Et pourtant, ChatGPT et cie sont largement utilisés par les étudiants de premier cycle pour tricher à l'université et en classe préparatoire aux grandes écoles. Il y a deux explications possibles, je vous laisse choisir laquelle vous satisfait le plus :

1. Les LLM ne sont pas aussi mauvais que Joel David Hamkins le pense. Ses travaux de recherche dans le domaine, sa chair à l'université et sa top réputation sur MathOverflow ne le rendent pas compétent pour parler de mathématiques.

2. Les exercices proposés aux étudiants sont médiocres et ne nécessitent pas de réelle réflexion, si bien que même un modèle de langage sans cervelle est capable de les résoudre.
1  2 
Avatar de ThibaudK
Nouveau Candidat au Club https://www.developpez.com
Le 08/01/2026 à 9:25
Citation Envoyé par RenarddeFeu Voir le message
Et pourtant, ChatGPT et cie sont largement utilisés par les étudiants de premier cycle pour tricher à l'université et en classe préparatoire aux grandes écoles. Il y a deux explications possibles, je vous laisse choisir laquelle vous satisfait le plus :

1. Les LLM ne sont pas aussi mauvais que Joel David Hamkins le pense. Ses travaux de recherche dans le domaine, sa chair à l'université et sa top réputation sur MathOverflow ne le rendent pas compétent pour parler de mathématiques.

2. Les exercices proposés aux étudiants sont médiocres et ne nécessitent pas de réelle réflexion, si bien que même un modèle de langage sans cervelle est capable de les résoudre.
Qu appelez vous mediocre ? Je pense que Hamkins dévalue clairement l IA, ca ne remet pas en cause sa propre reputation, qu il exagere ou non ... et qu appelez vous mediocre et ne forçant pas assez la reflexion ? Des sujets qui forceraient la reflexion de la majorité , ne demande aucun effort a une minorité prodigieuse ...et ne garantisse aucune pragmaticité des questionnement auquels ils repondent...l evaluation de l effort est donc subjective et non significative de la puissance reflexive developpée....et en jugeant l'IA sur ses capacités présentes, en des modeles bridés par de la fallacité morale, il ne peut que etre negatifs..., en lui demandant l IA precise que les LLM sont des agregations de correlations stochastiques, ce sont des heuristiques qui alterent la representation stochastique et qui effectue ce que l on appelle des taches de raisonnement ou resolution , en etant plus ou moins inspiré par les sequences mecaniques de mots stochastiquement probables dans le contexte prompté... c est une hybridation, la correlation stochastique seule (LLM) ne permet pas encore d extraire tres clairement les schema de formation de la raison... mais les progres sur les 5 dernieres années qu ont apporté les LLM/GPT sont enorme, incommensurable..
1  2