Developpez.com - Rubrique IA

Le Club des Développeurs et IT Pro

Elon Musk prédit que l'IA va surpasser l'humain le plus intelligent en 2025 ou dès 2026

Et que les capacités de l'IA vont dépasser celles de l'ensemble des humains dans les 5 prochaines années

Le 2024-04-09 09:42:53, par Patrick Ruiz, Chroniqueur Actualités
De 2017 (où Elon Musk affirmait que l’intelligence artificielle est un risque fondamental pour l’humanité) à 2020 en passant par 2019 (où il a déclaré que l’IA est bien plus dangereuse que l’arme nucléaire), sa position sur la question reste constante. Ses craintes portent notamment sur ceci que les avancées dans la filière pourraient déboucher sur une intelligence artificielle dite générale (AGI). Et à ce sujet, il se veut précis dans une récente entrevue en indiquant que « l’intelligence artificielle va surpasser l’humain le plus intelligent en 2025 ou dès 2026 et que les capacités de l’intelligence artificielle vont dépasser celles de l’ensemble des humains dans les 5 prochaines années. » Sa sortie intervient dans un contexte où des observateurs estiment que le concept d’intelligence artificielle générale est un mensonge.

C’est en raison de ces prédictions que Neuralink d’Elon Musk projette de développer des implants cérébraux susceptibles d’augmenter les capacités des êtres humains pour rivaliser avec l’intelligence artificielle. En des termes simples, cela voudrait dire s’appuyer sur l’intelligence artificielle pour mettre l’humain en capacité de rivaliser avec les robots. Cela s’entend transformer l’humain en une espèce de dispositif connecté à Internet comme le personnage Kusanagi dans Ghost in the Shell.


La perspective de l’atteinte d’une intelligence artificielle trouve en sus écho dans certains cercles académiques. « L'idée que l'IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c'était une erreur. Et je pensais personnellement que c'était loin d'être le cas. Je me disais qu'il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus », prévient Geoffrey Hinton – l’un des pionniers de l’apprentissage profond.


Des observateurs sont néanmoins d’avis que le concept d’intelligence artificielle générale est un mensonge raconté pour des raisons financières et politiques

Dans une analyse publiée sur le sujet, le journaliste Blankenhorn expose les aspects critiques de son point de vue comme suit :

Avant que tout le monde ne commence à publier des articles sur le "meilleur de 2023", voici le mensonge de l'année.

L'intelligence artificielle générale (AGI)

Ce mensonge a été élaboré lorsque l'OpenAI a commencé à pousser des programmes d'"intelligence artificielle générative" comme son ChatGPT, et il continue de se répandre. L'IA générative est issue de l'informatique de base de données basée sur le cloud que nous avons depuis une décennie. Elle est issue d'entreprises telles que Salesforce.com, qui vendaient des bases de données en tant que service dans le sillage de l'explosion de l'année 2000.

L'IA générative combine l'apprentissage automatique à partir d'une grande base de données avec une sortie flexible. Vous voulez une photo d'Elon Musk en rat ? Que diriez-vous d'une chanson sur les arbres dans le style de Steely Dan ? Voulez-vous une histoire sur l'actualité racontée par Mark Twain ? Que diriez-vous de rendre le pare-feu de votre entreprise proactif plutôt que réactif ? Il existe un programme d'IA générative qui vous aide à accomplir toutes ces tâches. C'est génial.

L'apprentissage automatique sur le Big Data

Mais l'IA générative n'est pas la même chose que l'intelligence générale.

Il s'agit d'un apprentissage automatique fondé sur un grand modèle de langage. Il s'agit d'un logiciel dont les résultats imitent ce que les gens ont fait avant lui. Cela signifie qu'elle a besoin d'informations sur ce qui a déjà été fait et d'algorithmes basés sur des données humaines pour faire quoi que ce soit.

L'IA générative ne peut pas penser. Elle ne peut que calculer.

Le mensonge sur l'intelligence artificielle générale est, comme la plupart des autres mensonges aujourd'hui, raconté pour des raisons politiques. Sam Altman veut que les grandes entreprises technologiques contrôlent le marché. Il veut que le gouvernement "réglemente" l'IA afin que seules quelques personnes et entreprises puissent l'utiliser, et il veut bien sûr faire partie des élus. Au minimum, son objectif est d'élever considérablement les barrières à l'entrée du nouveau marché.

En effet, l'IA générative peut rapporter beaucoup d'argent. Elle peut augmenter la productivité. Par exemple, elle peut planifier les ressources d'un hôpital, y compris son personnel, plus efficacement que la direction, parce qu'elle connaît toutes les ressources dont dispose l'hôpital, ainsi que les schémas d'utilisation.

C'est ce que nous montrent les travaux des entreprises de bases de données existantes. Elles s'appellent toutes vendeuses d'"IA" aujourd'hui. Palantir et ServiceNow connaissent une croissance de 20 à 30 % par an, de manière rentable.

L'utilisation des clouds pour traiter les données des programmes d'IA a également permis au fabricant de puces Nvidia de croître de 60 % par an. La capacité des clouds est absorbée par les clients, impatients de former de nouveaux modèles, aussi vite qu'elle est installée.

Mais il ne s'agit pas d'intelligence. Il s'agit de logiciels, d'algorithmes spécifiques conçus pour des ensembles de données spécifiques, avec des cas d'utilisation spécifiques, écrits, installés et gérés par des êtres humains. Ce n'est rien sans vous.

L'argumentaire de Blankenhorn a suscité de nombreuses réactions dans la communauté. Selon les critiques qui abondent dans son sens, il est important de contrer ce battage médiatique, car il exploite la naïveté des consommateurs afin de leur vendre tout produit estampillé "IA", qu'il soit efficace ou non. « ChatGPT, c'est comme la voyance. Le public est tellement désireux d'obtenir un miracle que même un tour de passe-passe bidon semble miraculeux. Lorsque tant de gens sont soit résignés à l'idée que l'AGI est une chose inévitable, il devient chaque jour plus facile pour une machine de passer le test de Turing sur le plan sociétal », indique un critique.

Un autre écrit : « nous avons inventé de nouveaux modèles d'apprentissage automatique capables de produire des images et des passages de texte convenables, si bien que les entreprises technologiques pensent que nous sommes sur le point de donner naissance à des esprits numériques qui pensent. Pour le dire simplement, il s'agit de fantasmes stupides et naïfs fondés sur une vision du monde axée sur la fiction. L'IA a changé et continuera de changer le monde en fonction de la façon dont les gens l'utilisent, mais l'idée que des formes de vie numériques conscientes d'elles-mêmes sont sur le point de naître est une fanfaronnade d'entreprise ».

D'un autre côté, l'analyse de Blankenhorn est sujette à contradictions. « Je suis d'accord pour dire que nous n'avons pas atteint l'AGI, mais son analyse est vraiment stupide. Il a oublié de fournir des preuves. L'ensemble de cet article peut être complètement rejeté. C'est en grande partie d'un argument d'homme de paille. L'argument principal était que les grands modèles de langage ne sont pas des AGI. Mais OpenAI et d'autres groupes travaillant sur les grands modèles de langages (et l'IA en général) ne prétendent pas attendre une AGI d'un grand modèle de langage », a écrit un critique. Selon lui, l'analyse de Blankenhorn n'apporte aucune information utile.

Un autre critique a écrit : « il s'agit donc de l'argument standard : "il n'y a pas d'intelligence, ce n'est que de l'autocomplétion". La réponse à cela est "qui s'en soucie ?". Si le système est capable d'augmenter la productivité, de nous aider à résoudre des problèmes qui étaient auparavant insolubles (le repliement des protéines) et de remplacer des emplois, alors on se moque de savoir s'il est réellement intelligent ». Mais ce critique est controversé à son tour, puisqu'il semble minimiser l'influence du battage médiatique autour de l'IA et de l'AGI sur les décisions des consommateurs. À la limite, son argument encourage la surmédiatisation de la technologie.

En somme, bien que Blankenhorn ne remette pas en cause le concept de l'AGI, il s'offusque contre le battage médiatique autour de cette technologie "hypothétique" et ses dangers potentiels pour l'humanité. Il affirme que tout ceci est fait afin de permettre à un petit groupe d'entreprises de contrôler le secteur de l'IA et d'entraver la concurrence en rendant difficile l'entrée de nouveaux acteurs sur le marché.

Source : Twitter Spaces Nicolai Tangen

Et vous ?

Quelle analyse faites-vous du positionnement de Dana Blankenhorn sur l'AGI ?
Partagez-vous l’avis selon lequel l’IA bénéficie de plus de battage médiatique qu’elle n’a de réelle substance ?
ChatGPT et les autres célèbres modèles d’IA sont-ils à la hauteur de leur succès ou cela est-il simplement dû à la surmédiatisation ?
Que pensez-vous de l'AGI ? Sera-t-elle un jour une réalité ou restera-t-elle insaisissable pour toujours ?

Voir aussi :

Comment saurons-nous que nous avons atteint une forme d'intelligence générale artificielle ? Pour certains experts en IA, ce sera lorsque la machine aura une cognition de niveau humain

Comment vous préparez-vous à la probabilité d'un effondrement économique causé par l'AGI ? Certains suggèrent l'achat d'actions technologiques et d'autres pensent que cela n'arrivera pas

Sam Altman, PDG d'OpenAI, affirme que ChatGPT aurait pu être considéré comme une intelligence générale artificielle il y a 10 ans, il a laissé entendre que le chatbot est victime de l'effet IA
  Discussion forum
249 commentaires
  • OuftiBoy
    Membre averti
    C'est fou ce qui se passe en se moment. Il y a certainement quelque chose qui se trame dernière tous ça. Faire dépenser l'argent des autres, cela semble le jeu du moment. Mais qui sont les investisseurs derrière tout ceci ? Qui a les moyens d'investir de la sorte ?

    Le monde s'éloigne de plus en plus de la réalité. Tous les pays sont endettés jusqu'au cou, mais qui "doit" combien et à "qui", je ne trouve pas l'info. L'économie mondial ressemble de plus en plus à un montage style système de Ponzi. Le capitalisme semble s'emballer dangereusement. Il n'est basé que sur la confiance. Si cette dernière s'écroule, c'est tout qui s'écroule. Et j'ai bien peur que cela finisse par arriver. Perso, je pense que le problème n'est pas de savoir "Si" ça va arriver, mais "Quand" cela va arriver.

    Quand tout n'est plus basé que sur de la spéculation, et pas sur du concret, c'est inévitable.

    Mais pour rester plus "terre à terre", quelles sont les compétences de ce Monsieur Altman ? Quel crédit donner à ses propos ? Connaît il seulement de quoi il parle ? De ce que j'ai compris, c'est juste un (très bon) vendeur. Mais même le meilleur des vendeurs ne peut pas vendre éternellement ce qui n'existe pas. Il faut avoir un sacré culot (et ego), pour se permettre de dire ce qu'il raconte. ChatGPT 4, c'est moins que rien dit-il, mais ChatGPT 5 ça sera de la balle, mais ce ne sera rien par rapport à ChatGPT 6. On peut aller loin comme ça. Je suis certains que ChatGPT 9672 se meilleur que ChatGPT 9671. Mais est-ce ça sera une AGI ? J'ai bien peur que non. Il faut être fou pour croire un seul instant que cela ne se terminera pas (très) mal.

    De quoi parle-t-on ? Qui sait ne fusse que définir ce qu'est sensé être une AGI ? J'en suis incapable, mais si quelqu'un ici peut m'expliquer, je suis preneur. Mais bon, je me lance, avec mes faibles connaissance de petit humain que je suis. Si on veut accorder rien qu'un peu de crédibilité à la chose, il faut admettre qu'une AGI serait capable d'évoluer au moins au niveau d'un être humain. Quand on voit ce que l'humanité a fait, "l'AGI" ne pourra pas faire "mieux", ni "pire". Elle est juste bombardée d'informations existantes (vrai ou fausse), et tente de triturer ces "informations" pour donner réponde à une question. Je ne vois rien ressemblant à "l'intelligence humaine" (qu'on a déjà du mal a définir). L'AGI ne "pensera pas". Et Qu'est-ce que la pensée au fait ? Comment une "idée" vient-elle titiller notre "esprit" ? Pourquoi certains génies comme Einstein ont-ils "pensé" et "développé" leurs "idées/pensée" ?

    Et puis, je pense que tout le monde sera d'accord pour dire que tous les "cerveaux" humains ne se valent pas. Le mien n'atteint pas la cheville, que dis-je, le bout de l'orteil, de celui des grands chercheurs des siècles passés. S'il n'y a pas deux cerveaux les même en ce bas monde, comment croire qu'une "AGI" serait "unique", "omnisciente", et capable d'avoir réponse à toute question ? Répondre correctement à des questions dont l'humanité a déjà la réponse, je ne vois pas où est le progrès ?

    Le propre de l'homme, c'est son "esprit" de découverte, d'exploration, d'expérimentation, de conclusion. Et même dans ce cas, il faut admettre que l'homme ne progresse que par "tâtonnement", une "théorie" ne restant correcte et établie que jusqu'à preuve du contraire.

    Si vous avez lu toute ma petite prose, il n'y a pas énormément de possibilités de conclure. Soit tous ces "devins" sont des Einsteins en culotte courte, ou des arnaqueurs "en col blanc".

    Je me suis fais mon idée, chacun étant libre de choisir la sienne.

    BàV et "Peace & Love"
  • kain_tn
    Expert éminent
  • phil995511
    Membre éprouvé
    On voit bien qu'il ne s'agit pas de son pognon...
  • CHAF007
    Membre à l'essai
    Hâte d'être dans cinq ans pour réaliser que tout ça n'est que du flan. Mais malheureusement notre mémoire est bien courte. On ne devait pas déjà "rouler" en voitures volantes, avoir des robots à la maison et partir en vacances sur Mars ?

    Évidemment que le Monsieur ponce les conférences et sort ses petites phrases pseudo prophétiques à qui veut bien les entendre. D'ailleurs il en devient relativement fatigant. En prenant le problème dans l'autre sens, étant donnée sa position, aurait-il un intérêt à ne pas tout enjoliver de la sorte ? Évidemment que lors de la ruée vers l'or, les vendeurs de pelles promettaient à quiconque qu'il y avait encore des tonnes d'or dans les sous-sols.

    Quand on n'a pas grand chose à dire sur le présent, on parle du futur, ça fait vendre. Il passe de plus en plus de fondateur génial, parti de rien, à un être bien antipathique notre monsieur.
  • Matthieu Vergne
    Expert éminent
    Le domaine de l'intelligence artificielle s'est creusé sur l'idée de faire des agents artificiels spécialisés variés et de les mettre ensemble pour faire un agent composite général. Cela n'a rien de loufoque à première vue, car c'est comme on fait des fonctions très spécialisées, qu'on combine ensuite pour faire des fonctions de plus haut niveau qui font des choses plus complexes.

    Là où le bas blesse, c'est que même aujourd'hui, personne n'a créé la moindre fonction capable de faire tout et n'importe quoi. Et dans les faits, plus on monte en capacités diverses et variées, plus il faut introduire de "management". C'est le principe de "découper" la grosse brique monolithique en petits bouts (micro services) gérés de manière standardisée pour qu'on arrive à s'y retrouver (merci les ops). En bref, tout comme la fonction unique pouvant tout faire, l'IA générale comme combinaison d'IA spécifiques est un doux rêve théorique infaisable en pratique.

    L'IA générale, qualifiée comme telle justement pour contrer cet aspect spécialisé, n'est cela dit pas un concept nouveau : il s'agit à la base d'une niche dans le domaine de l'IA, où on cherche justement à construire un agent non spécialisé. Par exemple l'intelligence pourrait être modélisée comme une capacité à maximiser les futurs possibles, quels qu'ils soient.

    Ce qui se fait majoritairement dans le domaine de l'IA, à savoir de la performance spécialisée, c'est ce qu'on appelle de l'expertise (artificielle). Et je suis content de voir qu'on commence à s'en rendre compte avec des modèles comme Mixtral qui introduisent des concepts de "mixture of experts". Dans le temps on avait aussi ce qu'on appelait des systèmes experts (ça se fait encore mais ça n'est pas la tendance), mais le principe est d'incorporer dans la machine les connaissances d'un ou plusieurs experts, experts qu'on a cherché à mettre au placard avec les systèmes à apprentissage.

    Aujourd'hui, le terme d'IA générale est sur le devant de la scène pour de mauvaises raisons : tout comme on fait l'amalgame entre intelligence et expertise depuis longtemps, on fait désormais l'amalgame entre IA générative et générale. Certes les systèmes actuels donnent l'impression de capacités générales, mais on voit vite que ce n'est pas le cas quand on joue un peu avec. Passé l'effet "wow !", on se rend vite compte qu'on a un générateur de texte sans cervelle : s'il a été entraîné sur les bonnes données, il régurgite ce qu'il a vu ailleurs (ce n'est pas pour rien que les procès liés à la propriété intellectuelle explosent), sinon il régurgite quelque chose en lien avec ce qu'on demande mais qui ressemble à ce qu'il a vu, quitte à générer des énormités. Énormités pour lesquelles il n'aura aucun mal à admettre ses erreurs (réponse cohérente dans un texte faisant état d'une erreur), mais sans pour autant les corriger si on recommence (réponse cohérente aussi : même garbage in, même garbage out).

    Pour résumer, je suis d'accord que parler d'IA générale sur les technos d'aujourd'hui est un mensonge, mais au même titre que parler d'intelligence tout court l'est aussi depuis le début. Passé la frustration de la définition, c'est à prendre comme un buzzword marketing, et ça c'est la peine usuelle depuis que la publicité existe : faire passer des vessies pour des lanternes. C'est pourquoi on a les retours inverses que finalement on s'en fiche du terme employé, tant que ça sert (comprendre "tant que c'est bon pour le business"). La seule solution pérenne à ma connaissance est de développer son esprit critique pour ne pas tomber dans le panneau.
  • totozor
    Membre expert
    Envoyé par Mathis Lucas
    Sam Altman, PDG d'OpenAI, affirme qu'il ne se soucie pas du tout des sommes colossales dépensées par son entreprise pour développer des modèles d'IA plus avancés.
    Cette phrase ne devrait elle pas faire instantanément fuir tout financeur?
    Il affirme qu'il est OK pour bruler de l'argent
  • Matthieu Vergne
    Expert éminent
    Envoyé par Ryu2000
    Il n'y a qu'à se dire qu'il y a une histoire de polysémie et voilà le débat est clos.
    On s'en moque un peu de la sémantique, non ?
    Tu as d'un côté ceux qui pensent qu'effectivement ça n'a pas d'importance, et de l'autre ceux qui pensent qu'au contraire c'est un problème fondamental. J'en ai croisé quelques uns du premier bord, moi je suis du second. Je ne comprends pas qu'on puisse établir un consensus (notamment scientifique) si on ne sait pas de quoi on parle, et rechigner à définir revient à laisser chacun y aller de sa propre interprétation, ce qui pour moi ne permet justement pas de conclure puisqu'on n'a pas de base commune. Quand tu en as qui tirent des conclusions en étudiant l'intelligence d'un point de vue performance, d'autre d'un point de vue conscience, d'autres d'un point de vue renseignement (rare mais déjà vu), etc. comment veux-tu comprendre à quoi tu as affaire ? Chacun parlant d'un truc différent sans jamais préciser quoi exactement. Et après d'autres souffrent (ou profitent) de cette ambiguïté sémantique en prenant des hypothèses qui font sens pour une interprétation, mais en tirent ensuite des conclusions qu'ils appliquent à une autre interprétation, ce qui donne des raisonnements fallacieux pas toujours évidents à déceler.
  • Jon Shannow
    Membre extrêmement actif
    Envoyé par Patrick Ruiz
    Et vous ?

    Quelle analyse faites-vous du positionnement de Dana Blankenhorn sur l'AGI ?
    Je pense que son analyse est bonne. L'AI actuelle n'est qu'une supercherie médiatique pour vendre un produit. Produit que l'on a déjà sous une forme peu abordable pour le grand public. Mais, le "I" de IA, dans ce cas, n'a pas grand chose avec "Intelligence".
    Envoyé par Patrick Ruiz
    Partagez-vous l’avis selon lequel l’IA bénéficie de plus de battage médiatique qu’elle n’a de réelle substance ?
    Tout à fait. Ça permet à des entreprises, comme OpenAI d'obtenir des financements sur du vent. C'est un phénomène connu, et généralement, ça fait pshiiit tôt ou tard, entrainant des pertes colossales (que le système fera payer aux plus pauvres, donc pas d'inquiétude)
    Envoyé par Patrick Ruiz
    ChatGPT et les autres célèbres modèles d’IA sont-ils à la hauteur de leur succès ou cela est-il simplement dû à la surmédiatisation ?
    Bien sûr que c'est dû à la surmédiatisation. Le reste n'a que peu d'intérêt.
    Envoyé par Patrick Ruiz
    Que pensez-vous de l'AGI ? Sera-t-elle un jour une réalité ou restera-t-elle insaisissable pour toujours ?
    Ça, je n'en sait rien. Mais je ne pense pas que je le connaitrai, et c'est tant mieux. Car, quoi qu'il arrive, ce sera toujours le pire que les hommes choisiront.
  • Jon Shannow
    Membre extrêmement actif
    Envoyé par Matthieu Vergne
    Là où le bas blesse
    Juste pour rappeler que l'expression c'est : Là où le bât blesse.
    Ça vient du temps où l'on chargeait les ânes ou les mulets ou les mules. Le chargement de ces pauvres bêtes est le bât. Et, parfois, l'animal refusait d'avancer car il était blessé par le chargement. Il fallait alors chercher l'origine du problème. D'où l'expression : C'est là que le bât blesse.
  • totozor
    Membre expert
    Envoyé par Denis CADIOT
    La version ChatGPT-4 sous Copilot Android est gratuite, et franchement au niveau "intelligence" 3.5 ou 4 c'est pareil.
    Copilot est arrivé au travail.
    Certains collègues le teste et son assez convaincus, il résume assez bien les réunion.
    Mais le "assez" signifie aussi qu'il confond parfois action avec problème ou inverse le raisonnement présenté.

    Ce qui m'inquiète dans cette histoire est qu'on était tous d'accord pour tester.
    On demandé à Copilot de faire un compte rendu de la réunion, que l'on pouvait corriger avant officialisation.
    Nous sommes deux à avoir demandé plusieurs corrections (notamment quand Copilot transforme le message de quelqu'un).
    Le compte rendu a été envoyé en ignorant nos demandes estimant que le compte rendu était "suffisamment bon" alors que les comptes rendus rédigés par quelqu'un peuvent être revus.

    Ces comptes rendus sont les rares qui sont relus a posteriori, donc on "grave dans le marbre" des raisonnements d'une personnes qu'il n'a pas eu et qui le décrédibiliseront peut être plus tard.
    La phase de test est clairement biaisée puise que les failles ne remontent pas. Je suppose que dans quelques mois nous aurons une news nous annonçant qu'on va gagner des heures de travail parce que notre nouvel assistant infaillible fait le travail plus vite et mieux que tout le monde...