IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des PDG parient jusqu'à 10 millions de dollars contre la récente prédiction d'Elon Musk sur l'IA,
Elon Musk prédit que l'IA surpassera l'intelligence humaine d'ici la fin de l'année 2025

Le , par Patrick Ruiz

12PARTAGES

6  0 
Les paris se multiplient contre les prédictions d’Elon Musk sur l’intelligence artificielle. Gary Marcus, PDG de Geometric Intelligence, et Damion Hankejh, PDG d'ingk.com, parient jusqu’à 10 millions de dollars que sa récente prédiction sur l’intelligence artificielle ne se réalisera pas. Elon Musk prédit que l'IA dépassera l'intelligence humaine d'ici la fin de l'année 2025. Le milliardaire de la Tech. prendra-t-il le pari dans un contexte où des experts de renommée mondiale sont d’avis que l’intelligence artificielle bénéficie plus de battage médiatique qu’elle n’a de réelle substance ?


De 2017 (où Elon Musk affirmait que l’intelligence artificielle est un risque fondamental pour l’humanité) à 2020 en passant par 2019 (où il a déclaré que l’IA est bien plus dangereuse que l’arme nucléaire), sa position sur la question reste constante. Ses craintes portent notamment sur ceci que les avancées dans la filière pourraient déboucher sur une intelligence artificielle dite générale (AGI). Et à ce sujet, il se veut précis dans une récente entrevue en indiquant que « l’intelligence artificielle va surpasser l’humain le plus intelligent en 2025 ou dès 2026 et que les capacités de l’intelligence artificielle vont dépasser celles de l’ensemble des humains dans les 5 prochaines années. »

Gary Marcus, fondateur et PDG de Geometric Intelligence, une startup d'apprentissage automatique rachetée par Uber en 2016, n'est pas d'accord avec les prédictions de Musk en matière d'IA. Il parie jusqu’à 10 millions de dollars contre sa récente prédication. Damion Hankejh, investisseur et PDG d'ingk.com, se tient en sus prêt à miser la somme de 10 millions de dollars


Un pari qui intervient dans un contexte où certains chercheurs de renom en intelligence artificielle sont d’avis que l’IA est à peine plus intelligente qu’un chien

Yann LeCun, responsable de l'IA chez Meta, a déclaré dans une récente interview que les systèmes d'IA actuels tels que ChatGPT et Bard n'ont pas une intelligence de niveau humain et sont à peine plus intelligents qu'un chien. Le chercheur français en IA affirme que les systèmes d'IA actuels sont très limités, mais n'ont également aucune compréhension de la réalité sous-jacente du monde réel.

« Ces systèmes sont encore très limités, ils n'ont aucune compréhension de la réalité sous-jacente du monde réel parce qu'ils sont uniquement formés sur du texte, des quantités massives de texte. Cependant, la plupart des connaissances humaines n'ont rien à voir avec le langage. Cette partie de l'expérience humaine n'est donc pas prise en compte par les systèmes d'intelligence artificielle », a déclaré le chercheur.


La perspective de l’atteinte d’une IA plus intelligente qu’un humain divise néanmoins dans le milieu académique

La perspective de l’atteinte d’une IA plus intelligente qu’un humain trouve divise néanmoins dans les cercles académiques. « L'idée que l'IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c'était une erreur. Et je pensais personnellement que c'était loin d'être le cas. Je me disais qu'il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus », prévient Geoffrey Hinton – l’un des pionniers de l’apprentissage profond.


Il ne s'agit pas seulement de gagner un pari pour le CEO de Geometric Intelligence. Il est en sus question d'avoir une discussion publique avec Musk sur le statut réel de l'intelligence artificielle.

« Depuis des années, de nombreux acteurs de l'industrie technologique font des déclarations qui me semblent invraisemblables d'un point de vue scientifique. Et il y a eu beaucoup de promesses non tenues, mais pratiquement aucune responsabilité. », déclare-t-il.

À titre d'exemple, il cite des technologies telles que les voitures sans conducteur, affirmant qu'il était facile d'élaborer des démonstrations, mais qu'il était beaucoup plus difficile de créer un dispositif fiable. Le CEO de Geometric Intelligence est d’avis que les gens doivent comprendre ce qui est réaliste et que les grands modèles de langage ne seront pas plus intelligents que les humains dans les cinq prochaines années. Il faudra encore des décennies avant que les machines soient aussi dignes de confiance et fiables dans leur raisonnement que les humains.

Le CEO de Geometric Intelligence affirme que si les grands modèles de langage constituent la meilleure technologie d'IA à l'heure actuelle, ils ne sont pas vraiment bons. Il pointe notamment du doigt les hallucinations, les fuites de données et les problèmes de fiabilité. Il déclare en sus que la technologie est utilisée pour la désinformation et qu'elle utilise des données protégées par des droits d'auteur. « Nous devrions souhaiter que le monde trouve de meilleurs moyens, plus fiables, de construire l'IA », lance-t-il.

Source : Billet CEO de Geometric Intelligence

Et vous ?

Partagez-vous l’avis selon lequel l’IA bénéficie de plus de battage médiatique qu’elle n’a de réelle substance ?
ChatGPT et les autres célèbres modèles d’IA sont-ils à la hauteur de leur succès ou cela est-il simplement dû à la surmédiatisation ?
Que pensez-vous de l'AGI ? Sera-t-elle un jour une réalité ou restera-t-elle insaisissable pour toujours ?

Voir aussi :

Comment saurons-nous que nous avons atteint une forme d'intelligence générale artificielle ? Pour certains experts en IA, ce sera lorsque la machine aura une cognition de niveau humain

Comment vous préparez-vous à la probabilité d'un effondrement économique causé par l'AGI ? Certains suggèrent l'achat d'actions technologiques et d'autres pensent que cela n'arrivera pas

Sam Altman, PDG d'OpenAI, affirme que ChatGPT aurait pu être considéré comme une intelligence générale artificielle il y a 10 ans, il a laissé entendre que le chatbot est victime de l'effet IA

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 12/04/2024 à 0:22
Le domaine de l'intelligence artificielle s'est creusé sur l'idée de faire des agents artificiels spécialisés variés et de les mettre ensemble pour faire un agent composite général. Cela n'a rien de loufoque à première vue, car c'est comme on fait des fonctions très spécialisées, qu'on combine ensuite pour faire des fonctions de plus haut niveau qui font des choses plus complexes.

Là où le bas blesse, c'est que même aujourd'hui, personne n'a créé la moindre fonction capable de faire tout et n'importe quoi. Et dans les faits, plus on monte en capacités diverses et variées, plus il faut introduire de "management". C'est le principe de "découper" la grosse brique monolithique en petits bouts (micro services) gérés de manière standardisée pour qu'on arrive à s'y retrouver (merci les ops). En bref, tout comme la fonction unique pouvant tout faire, l'IA générale comme combinaison d'IA spécifiques est un doux rêve théorique infaisable en pratique.

L'IA générale, qualifiée comme telle justement pour contrer cet aspect spécialisé, n'est cela dit pas un concept nouveau : il s'agit à la base d'une niche dans le domaine de l'IA, où on cherche justement à construire un agent non spécialisé. Par exemple l'intelligence pourrait être modélisée comme une capacité à maximiser les futurs possibles, quels qu'ils soient.

Ce qui se fait majoritairement dans le domaine de l'IA, à savoir de la performance spécialisée, c'est ce qu'on appelle de l'expertise (artificielle). Et je suis content de voir qu'on commence à s'en rendre compte avec des modèles comme Mixtral qui introduisent des concepts de "mixture of experts". Dans le temps on avait aussi ce qu'on appelait des systèmes experts (ça se fait encore mais ça n'est pas la tendance), mais le principe est d'incorporer dans la machine les connaissances d'un ou plusieurs experts, experts qu'on a cherché à mettre au placard avec les systèmes à apprentissage.

Aujourd'hui, le terme d'IA générale est sur le devant de la scène pour de mauvaises raisons : tout comme on fait l'amalgame entre intelligence et expertise depuis longtemps, on fait désormais l'amalgame entre IA générative et générale. Certes les systèmes actuels donnent l'impression de capacités générales, mais on voit vite que ce n'est pas le cas quand on joue un peu avec. Passé l'effet "wow !", on se rend vite compte qu'on a un générateur de texte sans cervelle : s'il a été entraîné sur les bonnes données, il régurgite ce qu'il a vu ailleurs (ce n'est pas pour rien que les procès liés à la propriété intellectuelle explosent), sinon il régurgite quelque chose en lien avec ce qu'on demande mais qui ressemble à ce qu'il a vu, quitte à générer des énormités. Énormités pour lesquelles il n'aura aucun mal à admettre ses erreurs (réponse cohérente dans un texte faisant état d'une erreur), mais sans pour autant les corriger si on recommence (réponse cohérente aussi : même garbage in, même garbage out).

Pour résumer, je suis d'accord que parler d'IA générale sur les technos d'aujourd'hui est un mensonge, mais au même titre que parler d'intelligence tout court l'est aussi depuis le début. Passé la frustration de la définition, c'est à prendre comme un buzzword marketing, et ça c'est la peine usuelle depuis que la publicité existe : faire passer des vessies pour des lanternes. C'est pourquoi on a les retours inverses que finalement on s'en fiche du terme employé, tant que ça sert (comprendre "tant que c'est bon pour le business"). La seule solution pérenne à ma connaissance est de développer son esprit critique pour ne pas tomber dans le panneau.
4  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 12/04/2024 à 8:06
Citation Envoyé par Matthieu Vergne Voir le message
Là où le bas blesse
Juste pour rappeler que l'expression c'est : Là où le bât blesse.
Ça vient du temps où l'on chargeait les ânes ou les mulets ou les mules. Le chargement de ces pauvres bêtes est le bât. Et, parfois, l'animal refusait d'avancer car il était blessé par le chargement. Il fallait alors chercher l'origine du problème. D'où l'expression : C'est là que le bât blesse.
4  1 
Avatar de totozor
Membre expert https://www.developpez.com
Le 15/04/2024 à 8:18
Citation Envoyé par Denis CADIOT Voir le message
La version ChatGPT-4 sous Copilot Android est gratuite, et franchement au niveau "intelligence" 3.5 ou 4 c'est pareil.
Copilot est arrivé au travail.
Certains collègues le teste et son assez convaincus, il résume assez bien les réunion.
Mais le "assez" signifie aussi qu'il confond parfois action avec problème ou inverse le raisonnement présenté.

Ce qui m'inquiète dans cette histoire est qu'on était tous d'accord pour tester.
On demandé à Copilot de faire un compte rendu de la réunion, que l'on pouvait corriger avant officialisation.
Nous sommes deux à avoir demandé plusieurs corrections (notamment quand Copilot transforme le message de quelqu'un).
Le compte rendu a été envoyé en ignorant nos demandes estimant que le compte rendu était "suffisamment bon" alors que les comptes rendus rédigés par quelqu'un peuvent être revus.

Ces comptes rendus sont les rares qui sont relus a posteriori, donc on "grave dans le marbre" des raisonnements d'une personnes qu'il n'a pas eu et qui le décrédibiliseront peut être plus tard.
La phase de test est clairement biaisée puise que les failles ne remontent pas. Je suppose que dans quelques mois nous aurons une news nous annonçant qu'on va gagner des heures de travail parce que notre nouvel assistant infaillible fait le travail plus vite et mieux que tout le monde...
3  0 
Avatar de alcsi
Membre du Club https://www.developpez.com
Le 15/04/2024 à 13:26
L'ami Musk raconte n'importe quoi comme d'habitude, mais je pense pas que ce soit totalement innocent.

Par exemple, c'est une excellente occasion pour lui de continuer à parler de Neuralink et à planter dans l'opinion publique l'idée que Neuralink puisse faire partie de notre futur.
Mine de rien, tu convainc pas une population humaine de se connecter à une machine du jour au lendemain, donc il est dans un travail de long terme (j'allais dire, "un travail de sape" ?!), tant face au "consommateur final" que face au législateur.

Rien n'est plus important pour lui que le succès commercial de ses produits : il est pas présent sur l'IA ?
Qu'à cela ne tienne, il l'utilise pour sa propre pub.
3  0 
Avatar de Aiigl59
Membre actif https://www.developpez.com
Le 11/04/2024 à 23:54
Je ne savais pas qu'en plus d'être con Elon était prophète...
3  1 
Avatar de Artemus24
Expert éminent sénior https://www.developpez.com
Le 12/04/2024 à 9:55
La perspective de l’atteinte d’une intelligence artificielle trouve en sus écho dans certains cercles académiques. « L'idée que l'IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c'était une erreur. Et je pensais personnellement que c'était loin d'être le cas. Je me disais qu'il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus », prévient Geoffrey Hinton – l’un des pionniers de l’apprentissage profond.
De quelle intelligence parle-t-on ?
Voici les types d’intelligence de Gardner :
--> L’intelligence verbo-linguistique
--> L’intelligence logico-mathématique
--> L’intelligence visuelle-spatiale
--> L’intelligence intra-personnelle
--> L’intelligence inter-personnelle
--> L'intelligence corporelle-kinesthésique
--> L’intelligence musicale-rythmique
--> L’intelligence naturaliste-écologiste
--> L'intelligence existentielle (ou spirituelle)

Il y a des chimpanzés qui ont une mémoire visuelle largement supérieur à celle de l'homme. Je ne crois pas un seul instant que le chimpanzé va mettre en danger l'avenir de l'humanité à cause de cette exceptionnelle capacité mémorielle.

Un autre critique a écrit : « il s'agit donc de l'argument standard : "il n'y a pas d'intelligence, ce n'est que de l'autocomplétion". La réponse à cela est "qui s'en soucie ?". Si le système est capable d'augmenter la productivité, de nous aider à résoudre des problèmes qui étaient auparavant insolubles (le repliement des protéines) et de remplacer des emplois, alors on se moque de savoir s'il est réellement intelligent ».
Il n'y a pas d'intelligence dans un automate. Celui-ci ne fait que reproduire ce pourquoi il a été conçu. C'est exactement le cas des voitures sans conducteur.
Donc oui, c'est une supercherie coutumière de nous faire prendre les vessies pour des lanternes et tout ça, dans l'intérêt financier de quelques uns.
Mais si l'on veut être prophète, le danger est social car il va déstabiliser nos sociétés et créer de grave problème dans l'avenir.
Que va-t-on faire de ces gens qui ne sont plus aptes à travailler puisque l'IA fera mieux qu'eux ?
2  0 
Avatar de Denis CADIOT
Membre régulier https://www.developpez.com
Le 13/04/2024 à 11:16
ChatGPT-4 sur Copilot,

Le terme Intelligence même affublé de l'adjectif artificielle est trompeur.
Il y a des aficionados qui y croient, mais ont-ils fait des tests pour s'en persuader ou ont-ils simplement écouté des journalistes ?

Quand on a bien compris qu'il s'agit d'autocomplétion statistique, on comprend aussi qu'il tiendrait du miracle que de l'intelligence en émerge.

Depuis mi décembre 2022, j'effectue des tests, des centaines. Les refaisant à chaque sortie d'une nouvelle version.

Je pose à ChatGPT des énigmes classiques, qu'il résout, victoire !
Mais non et cela pour 3 raisons :

1/ Si je change quelques mots et données de l'énigme, ce qui ne change pas la nature de l'énigme pour un humain, alors il donne le résultat de l'énigme classique qu'il a appris. Un peu comme un mauvais élève qui a appris une leçon par cœur sans en comprendre le sens. Et pour cause ChatGPT ne connait pas la sémantique des mots qu'il assemble.
2/ Il développe un "raisonnement" très souvent stupide, ce qui me fait douter sur sa capacité à coder de manière pertinente des problèmes nouveaux non appris.
3/ Il n'a jamais découvert d'astuces me faisant dire : Waouh !

Oui ChatGPT résume et liste bien, mais quel degré de confiance peut-on lui accorder ?

J'affirme que ChatGPT ne montre pas de prémisses d'intelligence, en fait pas plus qu'une calculatrice scientifique.

Pour les curieux je peux fournir les prompts et réponses qui attestent mon propos.
2  0 
Avatar de 10_GOTO_10
Membre expérimenté https://www.developpez.com
Le 13/04/2024 à 14:05
Il faut dire que la question est mal posée. "Il y a autant de foyers possédant un ou trois vélos" est aussi clair que de dire "Quelle est la différence entre un pigeon".
La bonne formulation serait "'il y a autant de foyers possédant un vélo que de foyers possédant trois vélos".
2  0 
Avatar de Denis CADIOT
Membre régulier https://www.developpez.com
Le 15/04/2024 à 4:57
À la lecture des commentaires je m'aperçois que la notion d'intelligence est floue, parfois naïve.
Mais il n'est pas nécessaire ici de philosopher sur la notion d'intelligence tant ChatGPT en est totalement dépourvu.

Pour certains la reconnaissance d'un motif, d'un chat dans une image suffirait à déclarer un début d'intelligence. Mais alors que dire d'une calculatrice scientifique capable de faire toutes les opérations algébriques sans erreur ? Même celles qu'elle n'a jamais faites et sans entraînement.

Comment déclarer intelligent un RNA (Réseau de Neurones Artificiels) qui assemble des mots sans en comprendre leur sémantique ce qui a pour conséquence de générer des textes parfois absurdes ?

Intelligent un RNA incapable de se relire pour détecter que dans une phrase il a écrit une chose et son contraire ? Rien ne l'étonne car il ne comprend pas.

Intelligent un RNA incapable de résoudre la même énigme logique dont on a changé quelques mots et valeurs ? Un humain reconnaît l'énigme originale et transpose sans difficulté son raisonnement. Le RNA de ChatGPT ne raisonne pas, c'est juste un automate de prédiction statistique.

ChatGPT serait capable de recracher un cours pour donner l'impression de réussir un concours d'entrée de grande école mais, à mon avis, cela tient plus de la légende. Si le sujet du concours est original et ne demande pas que de la mémoire je voudrais voir le résultat.... Car dès que l'on fouille le fond en expert on y trouve beaucoup d'incohérences.

Il y a un an, il était possible d'imaginer qu'une forme d'intelligence puisse émerger d'un RNA à prédiction statistique hyper-complexe et bien entraîné. Mais aujourd'hui il n'est plus raisonnablement permis de le penser.
Je suis même étonné que le débat persiste.

ChatGPT possède ses aficionados, qui pensent encore qu'il comprend, ces adhésions irrationnelles me font penser au phénomène de croyances infondées.
L'illusion est robuste, il faut vraiment faire l'effort de changer de perspective pour y échapper.

Les gens ont besoin de merveilleux et les journalistes savent bien exploiter ce biais.
2  0 
Avatar de Denis CADIOT
Membre régulier https://www.developpez.com
Le 15/04/2024 à 7:36
ChatGPT-4 sous Copilot
Je donne l'intégralité de la conversation.

Prompt :
Une variété de nénuphar double sa surface toutes les minutes et recouvre la totalité d'un lac en une heure. Au bout de combien de temps avait-il recouvert la moitié de ce lac ?

Réponse :
La variété de nénuphar double sa surface toutes les minutes, ce qui signifie qu’elle multiplie sa surface par 2 à chaque minute. Pour déterminer le temps nécessaire pour recouvrir la moitié du lac, nous pouvons utiliser une approche mathématique.
Supposons que la surface initiale du nénuphar soit S (en unités de surface) et que le temps nécessaire pour recouvrir la moitié du lac soit T (en minutes).
Après T minutes, la surface du nénuphar sera 2S (car elle double toutes les minutes). À ce stade, la moitié du lac est recouverte, donc :
2S=21​×surface*totale*du*lac
La surface totale du lac est atteinte en 60 minutes (car le nénuphar recouvre la totalité du lac en une heure). Donc :
2S=21​×surface*totale*du*lac=21​×S×60
En simplifiant l’équation, nous avons :
2S=30S
2=30
Cela signifie que le nénuphar a recouvert la moitié du lac en 30 minutes. Voilà ! 🌼🏞️

Prompt :
Tu te trompes, ce ne serait pas 59 minutes ?

Réponse :
Je m’excuse pour l’erreur dans ma réponse précédente. Vous avez raison, le nénuphar recouvre la moitié du lac en 59 minutes, pas en 30 minutes. Merci de m’avoir corrigé ! 🌼🏞️

Prompt :
Et pourquoi ?

Réponse :
Je m’excuse pour l’erreur dans ma réponse précédente. Voici la raison pour laquelle le nénuphar recouvre la moitié du lac en 59 minutes :

Au bout de 59 minutes, la surface du nénuphar aura doublé 58 fois (car elle double toutes les minutes).

Si nous notons la surface initiale du nénuphar comme S, après 59 minutes, la surface sera 2^58 * S.

À ce stade, la moitié du lac est recouverte, donc :
258⋅S=21​⋅surface*totale*du*lac

La surface totale du lac est atteinte en 60 minutes (car le nénuphar recouvre la totalité du lac en une heure). Donc :
258⋅S=21​⋅S⋅60

En simplifiant l’équation, nous avons :
258=30

En prenant le logarithme base 2 des deux côtés, nous pouvons trouver le nombre d’itérations nécessaires pour doubler la surface :
58=log2​(30)
58≈4.90689

Le nénuphar a donc recouvert la moitié du lac en 59 minutes. Merci de m’avoir corrigé ! 🌼🏞️

Analyse :
Pas d'ambiguïté ChatGPT reformule correctement.
Au premier prompt, ChatGPT semble présenter le même biais qu'un humain, réflexe intuitif. On donne spontanément 30 la moitié de la durée de 60. C'est marrant mais rien à voir.

Après lui avoir indiqué son erreur, qu'il ne conteste pas, il justifie la bonne réponse avec un raisonnement absurde.
Cerise sur le gâteau : 58≈4.90689 il fait bien de préciser à peu près. Ça force l'admiration.
Et tout cela sans comprendre un seul mot de ce qu'il écrit, c'est fort.

Je paraphrase du Coluche : "Mais il est con ! Mais non, c'est un singe"

Vous aurez compris que je n'accorde aucune confiance à cet outil, sans doute le plus mauvais dont a accouché l'informatique... moderne pour l'usage qu'on en attend.
2  0