De 2017 (où Elon Musk affirmait que l’intelligence artificielle est un risque fondamental pour l’humanité) à 2020 en passant par 2019 (où il a déclaré que l’IA est bien plus dangereuse que l’arme nucléaire), sa position sur la question reste constante. Ses craintes portent notamment sur ceci que les avancées dans la filière pourraient déboucher sur une intelligence artificielle dite générale (AGI). Et à ce sujet, il se veut précis dans une récente entrevue en indiquant que « l’intelligence artificielle va surpasser l’humain le plus intelligent en 2025 ou dès 2026 et que les capacités de l’intelligence artificielle vont dépasser celles de l’ensemble des humains dans les 5 prochaines années. »
Gary Marcus, fondateur et PDG de Geometric Intelligence, une startup d'apprentissage automatique rachetée par Uber en 2016, n'est pas d'accord avec les prédictions de Musk en matière d'IA. Il parie jusqu’à 10 millions de dollars contre sa récente prédication. Damion Hankejh, investisseur et PDG d'ingk.com, se tient en sus prêt à miser la somme de 10 millions de dollars
Un pari qui intervient dans un contexte où certains chercheurs de renom en intelligence artificielle sont d’avis que l’IA est à peine plus intelligente qu’un chien
Yann LeCun, responsable de l'IA chez Meta, a déclaré dans une récente interview que les systèmes d'IA actuels tels que ChatGPT et Bard n'ont pas une intelligence de niveau humain et sont à peine plus intelligents qu'un chien. Le chercheur français en IA affirme que les systèmes d'IA actuels sont très limités, mais n'ont également aucune compréhension de la réalité sous-jacente du monde réel.
« Ces systèmes sont encore très limités, ils n'ont aucune compréhension de la réalité sous-jacente du monde réel parce qu'ils sont uniquement formés sur du texte, des quantités massives de texte. Cependant, la plupart des connaissances humaines n'ont rien à voir avec le langage. Cette partie de l'expérience humaine n'est donc pas prise en compte par les systèmes d'intelligence artificielle », a déclaré le chercheur.
La perspective de l’atteinte d’une IA plus intelligente qu’un humain divise néanmoins dans le milieu académique
La perspective de l’atteinte d’une IA plus intelligente qu’un humain trouve divise néanmoins dans les cercles académiques. « L'idée que l'IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c'était une erreur. Et je pensais personnellement que c'était loin d'être le cas. Je me disais qu'il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus », prévient Geoffrey Hinton – l’un des pionniers de l’apprentissage profond.
Il ne s'agit pas seulement de gagner un pari pour le CEO de Geometric Intelligence. Il est en sus question d'avoir une discussion publique avec Musk sur le statut réel de l'intelligence artificielle.
« Depuis des années, de nombreux acteurs de l'industrie technologique font des déclarations qui me semblent invraisemblables d'un point de vue scientifique. Et il y a eu beaucoup de promesses non tenues, mais pratiquement aucune responsabilité. », déclare-t-il.
À titre d'exemple, il cite des technologies telles que les voitures sans conducteur, affirmant qu'il était facile d'élaborer des démonstrations, mais qu'il était beaucoup plus difficile de créer un dispositif fiable. Le CEO de Geometric Intelligence est d’avis que les gens doivent comprendre ce qui est réaliste et que les grands modèles de langage ne seront pas plus intelligents que les humains dans les cinq prochaines années. Il faudra encore des décennies avant que les machines soient aussi dignes de confiance et fiables dans leur raisonnement que les humains.
Le CEO de Geometric Intelligence affirme que si les grands modèles de langage constituent la meilleure technologie d'IA à l'heure actuelle, ils ne sont pas vraiment bons. Il pointe notamment du doigt les hallucinations, les fuites de données et les problèmes de fiabilité. Il déclare en sus que la technologie est utilisée pour la désinformation et qu'elle utilise des données protégées par des droits d'auteur. « Nous devrions souhaiter que le monde trouve de meilleurs moyens, plus fiables, de construire l'IA », lance-t-il.
Source : Billet CEO de Geometric Intelligence
Et vous ?
Partagez-vous l’avis selon lequel l’IA bénéficie de plus de battage médiatique qu’elle n’a de réelle substance ?
ChatGPT et les autres célèbres modèles d’IA sont-ils à la hauteur de leur succès ou cela est-il simplement dû à la surmédiatisation ?
Que pensez-vous de l'AGI ? Sera-t-elle un jour une réalité ou restera-t-elle insaisissable pour toujours ?
Voir aussi :
Comment saurons-nous que nous avons atteint une forme d'intelligence générale artificielle ? Pour certains experts en IA, ce sera lorsque la machine aura une cognition de niveau humain
Comment vous préparez-vous à la probabilité d'un effondrement économique causé par l'AGI ? Certains suggèrent l'achat d'actions technologiques et d'autres pensent que cela n'arrivera pas
Sam Altman, PDG d'OpenAI, affirme que ChatGPT aurait pu être considéré comme une intelligence générale artificielle il y a 10 ans, il a laissé entendre que le chatbot est victime de l'effet IA