
Les milliardaires de la technologie comme Mark Zuckerberg et Elon Musk investissent massivement dans l'IA. Ils sont convaincus que l'industrie est proche de créer une IA capable de faire de nouvelles découvertes scientifiques. Leurs déclarations attirent les investisseurs et maintiennent les travailleurs dans un climat d'incertitudes. Mais les véritables experts affirment que cette technologie n'est pas à porter de main. Yann LeCun, co-inventeur de l'apprentissage profond moderne, a déclaré que les modèles d'IA n'aboutiront pas à une véritable intelligence artificielle générale (AGI). D'autres dénoncent le mirage de l'AGI et le battage médiatique autour.
Les prédictions audacieuses sur l'arrivée de l'AGI sont nombreuses. En mars 2023, Sam Altman, PDG d’OpenAI, a déclaré à plusieurs reprises que l'AGI pourrait apparaître d’ici à 2027. En 2024, Elon Musk, PDG de xAI, a déclaré : « je pense que l’AGI pourrait arriver d’ici 2025. Peut-être même plus tôt ». En mai 2024, Demis Hassabis, PDG de Google DeepMind, a noté : « je pense que nous pourrions voir l’AGI dans les prochaines années, peut-être d’ici 2030 ».
Meta investit des dizaines de milliards de dollars dans un nouveau laboratoire destiné à la création de la superintelligence. Après l'échec cuisant du métavers de Meta, l'entreprise se tourne vers l'IA. « Le Meta Superintelligence Labs disposera de niveaux de calcul inégalés dans l'industrie et, de loin, du plus grand nombre de calculs par chercheur. J'ai hâte de travailler avec les meilleurs chercheurs pour faire avancer les choses », affirme le PDG Mark Zuckerberg.
Dans un récent épisode du podcast All-In, le milliardaire Travis Kalanick, cofondateur d'Uber, a expliqué pourquoi il pense que l'IA est sur le point de révolutionner les connaissances scientifiques et provoquer de nombreux bouleversements. (Travis Kalanick ne travaille plus chez Uber.) Travis Kalanick a décrit comment il utilise le chatbot Grok de l'entreprise xAI d'Elon Musk pour tenter d’explorer les frontières de la physique quantique en mode « vibe physics ».
L'IA peut-elle créer quelque chose de nouveau ? Oui, selon les milliardaires
Travis Kalanick dit avoir été « proche de percées intéressantes » en utilisant le chatbot Grok. L'un des animateurs du podcast, Jason Calacanis lui a posé la question suivante : « ces IA sont-elles vraiment capables de proposer des idées véritablement nouvelles ? » En réponse, Travis Kalanick a reconnu que l'IA ne crée rien de neuf par elle-même, mais qu'il faut « tirer sur l’âne » pour extraire une idée novatrice malgré leur adhésion à la sagesse traditionnelle.
Elon Musk est convaincu que l'IA surpassera bientôt les humains dans tous les domaines de la vie, bien que ses prédictions se sont souvent révélées fausses. Il a déclaré avoir posé à Grok des questions sur la science des matériaux qui ne figurent ni dans les livres ni en ligne. En réponse, le chatbot aurait touché à des zones inexplorées. L'idée, bien sûr, est que Musk a atteint les limites de la science connue plutôt que la limite de sa compréhension scientifique.
Selon les prédictions, grâce à ses capacités avancées, l'AGI a le pouvoir de révolutionner les industries, de relever des défis mondiaux complexes et de remodeler notre façon de travailler et de vivre. OpenAI, Anthropic, Microsoft, Google, etc. investissent des milliards dans l'AGI et s'attendent à ce qu'elle égale ou surpasse les capacités cognitives de l'homme, mais pour l'instant, elle reste un objectif insaisissable, avec de nombreux défis techniques à relever.
Les plus enthousiastes affirment que chaque jour qui passe nous rapproche de la création d'entités artificielles rivalisant avec nos capacités cognitives. Certains parmi eux pensent d'ailleurs que nous sommes déjà en présence d'une forme d'AGI. À titre d'exemple, en octobre 2023, le PDG d'OpenAI, Sam Altman, a déclaré que son chatbot ChatGPT aurait pu être considéré comme une AGI s'il était sorti dix ans auparavant. Ce qui a suscité de nombreux critiques.
Malgré leurs espoirs, les milliardaires de technologie concèdent que les IA actuelles restent limitées : elles imitent ce qui est déjà connu, sans réelle capacité de raisonnement ou de créativité. Leur utilité est conditionnée à un usage très critique, avec double‑vérification systématique des idées extraites.
L'industrie court après une technologie qu'elle n'est pas capable de définir
Les milliardaires de technologie font l'apologie de l'intelligence artificielle générale. Mais ce concept n'a même pas une définition exacte et cela ne semble pas pour bientôt. Et c'est loin d'être le seul terme qui circule à l'heure actuelle dans l'industrie technologique. Les milliardaires et leurs entreprises utilisent également le terme très accrocheur « superintelligence » sans définir ce que cela signifie, mais ce concept ne manque pas d'intriguer les investisseurs.
L'industrie de l'IA n'est toujours pas tombée d'accord sur une définition unique de ce qu'est l'AGI. Chaque entreprise a sa propre définition. Début avril 2025, Google DeepMind a publié un document dans lequel il définit l'AGI comme « un système capable d'égaler au moins le 99e percentile des adultes qualifiés dans un large éventail de tâches non physiques, y compris des tâches métacognitives telles que l'apprentissage de nouvelles compétences ».
Selon un rapport de The Information, OpenAI et Microsoft définissent l'AGI comme « un système d'IA pouvant générer jusqu'à 100 milliards de dollars de bénéfices », ce qui semble totalement éloigné de toute référence scientifique. Le rapport cite un document de 2023 émanant des deux entreprises. Il suggère que l'AGI, telle que beaucoup l'imaginent, est un objectif irréaliste et révèle surtout qu'OpenAI est aujourd'hui plus intéressé par les profits.
« Quiconque prétend qu'un concept mal défini, l'AGI, est sur le point de voir le jour est très probablement en train d'essayer de vendre quelque chose ou simplement se faire entendre », a écrit un critique. En outre, une étude d'Apple a remis en question les progrès vantés par OpenAI, Google et Anthropic en matière de raisonnement des modèles d'IA. Selon le rapport, la précision de cette technique s'effondre entièrement face à des problèmes complexes.
Les plus sceptiques pensent que les machines n'atteindront jamais ce niveau. En mars 2025, une enquête a révélé que la majorité des chercheurs en IA estiment que l'industrie technologique déverse des milliards dans une impasse. Environ 76 % d'entre eux estiment qu'il est « peu probable » ou « très peu probable » que l'augmentation de la puissance de calcul et des données des grands modèles de langage (LLM) actuels conduise à une AGI à l'avenir.
L'IA générative excelle dans l'imitation, mais pas dans « l'innovation »
Selon une étude publiée par des chercheurs de l'université de Californie à Berkeley, l'IA excelle dans l'imitation, mais pas dans l'innovation. Contrairement à ce que les entreprises d'IA et les milliardaires de la technologie tentent de faire croire, l'IA générative ne possède pas la capacité humaine cruciale qu'est l'innovation. Selon l'étude, les systèmes d'IA actuels excellent dans l'imitation, mais pas dans l'innovation. Ils souffrent de nombreuses limites.
« Même de jeunes enfants humains peuvent produire des réponses intelligentes à certaines questions, ce que les modèles de langage ne peuvent pas faire », a déclaré Eunice Yiu, coauteure de l'étude, lors d'une interview. Selon Yann LeCun, lauréat du prestigieux prix Turing 2019, les modèles actuels ne sont pas en mesure de résoudre les défis cognitifs tels que le raisonnement, la planification, la mémoire persistante et la compréhension du monde physique.
« Au lieu de considérer ces outils d'IA comme des agents intelligents comme nous, nous pouvons les voir comme une nouvelle forme de bibliothèque ou de moteur de recherche. Ils résument et nous communiquent efficacement la culture et la base de connaissances existantes », a déclaré Eunice Yiu.
Selon les experts, les chatbots d'IA réalisent un tour de magie. Ils donnent souvent l'impression de « réfléchir » ou d'appliquer une pensée rationnelle à une réponse donnée, mais ils fonctionnent en crachant le mot qui est le plus susceptible d'être le suivant dans une phrase, et non en appliquant réellement un raisonnement critique. Ce n'est pas pour rien que les personnes qui comprennent le mieux l'IA sont les moins enthousiastes à l'idée de l'utiliser.
Apple s'est fait beaucoup critiquer pour ne pas s'être engagé plus fermement en faveur de l'IA, ce dont les All-In ont parlé, mais l'entreprise comprend peut-être mieux que la plupart des gens que cette technologie a des limites. Apple a publié le mois dernier un article qui montre comment les modèles axés sur le raisonnement à grande échelle (LRM) se débattent, et font face à « un effondrement complet de la précision au-delà de certaines complexités ».
L'article d'Apple ne va pas freiner l'engouement, bien sûr. Presque tous les autres Big Tech s'intéressent de près aux agents d'IA et investissent des dizaines de milliards de dollars dans des centres de données. Mais cette frénésie a entraîné un lot de problèmes pour les populations vivant dans les petites villes ou régions rurales dans lesquelles ces infrastructures sont installées. Elles sont énergivores et exercent une pression sur les réseaux électriques.
Les entreprises relancent les vieilles centrales à charbon pour répondre aux besoins de l'IA, accentuant ainsi les niveaux de pollution. Les centres de données nécessitent d'énormes quantités d'eau pour refroidir les serveurs, ce qui accroit la pression sur les sources d'eau et pollue les nappes phréatiques.
La bulle spéculative créée par l'IA pourrait se solder par un désastre
James Ferguson, associé fondateur de MacroStrategy Partnership, un cabinet de recherche macroéconomique basé au Royaume-Uni, craint que la folie spéculative autour de l'IA générative se solde par un désastre. L'analyste affirme que l'hallucination des LLM pourrait s'avérer un défi insoluble, ce qui conduirait l'IA à avoir beaucoup moins d'applications viables. Pour lui, l'IA pourrait s'avérer "inutile" dans les années à venir et créer beaucoup de désillusions.
« Historiquement, ces bulles finissent mal. Quiconque est un peu vieux jeu et a déjà vu ce genre de choses est donc tenté de croire que cela finira mal. Je dirais que l'IA n'a toujours pas fait ses preuves. Faire semblant jusqu'à ce qu'on y arrive peut fonctionner dans la Silicon Valley, mais pour le reste d'entre nous, je pense que l'expression "une fois mordu, deux fois timide" est plus appropriée pour l'IA », a-t-il déclaré à Merryn Somerset Webb, de Bloomberg.
Il a ajouté : « si l'on ne peut pas faire confiance à l'IA, alors l'IA est effectivement, à mon avis, inutile ». Il a déclaré que la technologie pourrait finir par être trop "gourmande en énergie" pour être un outil rentable pour de nombreuses entreprises. À cet égard, une étude publiée cette année par l'Amsterdam School of Business and Economics a révélé que les applications d'IA pourraient à elles seules consommer autant d'énergie que les Pays-Bas d'ici 2027.
« Si Nvidia ne facture pas ses puces de plus en plus chères, vous devez également payer de plus en plus cher pour faire fonctionner ces puces sur vos serveurs. Vous vous retrouvez donc avec quelque chose de très cher qui n'a pas encore prouvé, en dehors de quelques applications étroites, qu'il est rentable », a déclaré James Ferguson. Les entreprises d'IA espèrent des percées majeures dans la production énergétique, mais le secteur avance lentement.
James Ferguson affirme que la bonne nouvelle, c'est que la bulle boursière actuelle est tellement concentrée sur les actions liées à l'IA qu'il y a encore de la valeur. Bien entendu, l'éclatement de la bulle de l'IA entraînera une douleur généralisée pour les investisseurs. Mais après cela, James Ferguson recommande de s'intéresser aux petites capitalisations actuellement mal aimées, qui pourraient bénéficier de baisses de taux d'intérêt et ne sont pas très valorisées.
En somme, les économistes et les observateurs du marché pensent que le résultat de la normalisation des valorisations des actions liées à l'IA après la folie spéculative risque d'être dévastateur à la fois pour les entreprises et pour les investisseurs qui investissent dans l'IA sans aucun recul.
Conclusion
En conclusion, l'on observe un contraste frappant entre l'optimisme technophile des milliardaires, persuadés que les IA sont prêtes à franchir un cap scientifique, et la réalité actuelle : les grands modèles de langage restent des agrégateurs ultra-sophistiqués, manquant de véritable créativité ou de rigueur scientifique sans supervision humaine stricte. Les experts sont moins optimistes. Selon Yann LeCun, l'IA est encore loin d'une intelligence canine ou féline.
« Les développements montrent qu'il manque quelque chose de vraiment important afin d'atteindre non seulement une intelligence de niveau humain, mais même une intelligence de chien. En fait, les experts n'ont aucune idée de la manière de reproduire cette capacité avec des machines à ce jour. Tant que nous n'y parviendrons pas, ces systèmes d'IA n'auront pas une intelligence de niveau humaine ni une intelligence canine ou féline », a-t-il déclaré.
Par ailleurs, en jetant un froid sur les promesses du raisonnement par l'IA, Apple ne se contente pas de critiquer ses concurrents. La firme de Cupertino soulève des questions fondamentales sur la trajectoire actuelle de l'IA et invite à une réflexion plus approfondie sur les défis qui restent à surmonter pour que la machine puisse un jour véritablement « penser ». Le rapport d'Apple renforce les doutes sur les capacités de l'industrie à atteindre une forme d'AGI.
Et vous ?



Voir aussi



Vous avez lu gratuitement 97 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.