« D'ici 5 à 20 ans, il y a une probabilité significative que nous soyons confrontés au problème de l'intelligence artificielle qui essaie de prendre le dessus », indique-t-il dans un récent entretien accordé à un média.
"Between 5 and 20 years from now there’s a probability of about a half that we'll have to confront the problem of [AI] trying to take over"
— BBC Newsnight (@BBCNewsnight) May 17, 2024
Regarded by many as the "godfather" of AI, Professor Geoffrey Hinton tells #Newsnight the technology presents an existential threat to… pic.twitter.com/LCYubfzP9j
L’intelligence artificielle qui surpasse celle des humains serait plus proche qu’on ne le pense et avec elle des risques d’élimination des humains par les robots
« L'idée que l'IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c'était une erreur. Et je pensais personnellement que c'était loin d'être le cas. Je me disais qu'il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus », souligne-t-il dans une précédente sortie. Ce dernier vient donc rejoindre des acteurs de la filière technologique comme Elon Musk qui sont d’avis que l’intelligence artificielle va surpasser les capacités cognitives des Hommes.
« Ça fait dix ans que je lance cette alerte. Nous devrions nous inquiéter de la direction que prend l'intelligence artificielle. Les personnes que je vois se tromper le plus sur ce sujet sont celles qui sont très intelligentes, ce, parce qu'elles ne peuvent pas imaginer qu'un ordinateur puisse être beaucoup plus intelligent qu'elles. C'est la faille de leur raisonnement. Elles sont juste beaucoup plus bêtes qu'elles ne le pensent », rapporte un correspondant du Financial Times.
De 2017 (où Elon Musk affirmait que l’intelligence artificielle est un risque fondamental pour l’humanité) à 2020 en passant par 2019 (où il a déclaré que l’IA est bien plus dangereuse que l’arme nucléaire), la position du milliardaire de la filière tehnologique sur la question reste donc constante. Les craintes d’Elon Musk portent notamment sur ceci que les avancées dans la filière pourraient déboucher sur une intelligence artificielle dite générale (AGI). Ce serait alors la porte ouverte sur l’accomplissement de l’apocalypse. Des équipes de recherche comme celle d’OpenAI sont lancées sur ce couloir. Si l’on se réfère à des retours de scientifiques œuvrant dans le domaine, l’AGI pourrait nous tomber dessus dans 5 à 10 ans.
Les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent. C’est d’ailleurs pour cela que sa société Neuralink travaille sur des interfaces cerveau – machine à insérer dans le crâne pour préparer l’humanité à un « funeste » futur où les robots domineront sur elle.
« Le cerveau dit lent » serait la composante qui fait défaut à l’IA actuelle afin qu’elle puisse surpasser l’intelligence humaine
Il est généralement admis que le cerveau humain est constitué de deux systèmes cognitifs distincts : le cerveau dit rapide et celui dit lent.
Le cerveau rapide est essentiellement une machine à reproduire des schémas. Les milliards de neurones de notre cerveau sont connectés entre eux pour former ce que l'on appelle des réseaux neuronaux. Ces réseaux neuronaux forment des voies dans notre cerveau qui associent les entrées sensorielles de notre environnement à une réponse automatique. Des entrées similaires donneront lieu à la même réponse.
Un exemple pour illustrer : Pensez à une fois où vous avez regardé un film d'horreur et où, tout à coup, il s'est passé quelque chose à l'écran qui vous a fait sursauter. C'est le cerveau rapide qui est à l'œuvre. Le cerveau rapide a mis en correspondance les entrées sensorielles représentant quelque chose à craindre - peut-être une image effrayante à l'écran et un bruit soudain - avec notre réaction de lutte ou de fuite. En conséquence, vous ressentez une secousse physique lorsque l'adrénaline est libérée dans votre corps et que vous êtes prêt à vous battre ou à fuir. Tout cela s'est produit très rapidement, de manière totalement involontaire, et est le résultat de voies cérébrales qui ont évolué pour nous protéger.
Le cerveau lent, quant à lui, est le penseur conscient. Il est responsable de choses telles que la compréhension, le raisonnement et la contemplation du sens de la vie. Le professeur Steve Peters qualifie ce système de pensée d' « humain », car c'est cette forme de pensée qui nous distingue du reste du règne animal.
Ainsi, alors que le cerveau humain possède deux systèmes cognitifs distincts, des systèmes comme ChatGPT ou Bard n'en possèdent qu'un seul. Ils disposent d'une version logicielle d'un cerveau rapide.
Le développement le plus important dans l'histoire de l'IA a sans doute été la création des réseaux neuronaux artificiels. Tout comme le cerveau rapide humain, les réseaux neuronaux artificiels sont des machines de correspondance de modèles extrêmement efficaces. C'est un réseau neuronal artificiel qui est le cerveau de ChatGPT et autres Bard ou Sora.
Ils utilisent ce réseau neuronal artificiel pour identifier des modèles dans le texte et pour prédire le travail suivant le plus probable dans un contexte donné. Ils sont incroyablement performants dans ce domaine. Ils sont si bons qu'ils peuvent sembler capable de comprendre, de raisonner et même d'envisager le sens de la vie. Mais ce n'est qu'une illusion. En réalité, ce sont des perroquets statistiques, qui imitent des réponses de type humain sans véritable compréhension ou conscience.
C’est pour ces raisons que Yann LeCun est d’avis que les grands modèles de langage n’atteindront pas l’intelligence humaine
Yann LeCun, responsable de la division intelligence artificielle de Meta, est d’avis que l’intelligence artificielle de niveau humain est atteignable. Ce qu’il souligne par contre est que cela ne se fera pas au travers des grands modèles de langage (LLM). C’est d’ailleurs la raison pour laquelle ses travaux actuels chez Meta portent sur une approche différente destinée à atteindre l’intelligence artificielle dite générale – ce stade où les machines seront dotées de bon sens, capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. »
« Les grands modèles de langage (LLM) ont une compréhension très limitée de la logique, ne comprennent pas le monde physique, n'ont pas de mémoire persistante, ne peuvent pas raisonner au sens propre du terme et ne peuvent pas planifier de manière hiérarchique », souligne-t-il.
Yann LeCun reste donc cohérent avec ses précédentes sorties selon lesquelles les grands modèles de langage n’ont aucune compréhension de la réalité sous-jacente du monde réel parce qu'ils sont uniquement formés sur du texte, des quantités massives de texte. « la plupart des connaissances humaines n'ont rien à voir avec le langage. Cette partie de l'expérience humaine n'est donc pas prise en compte par les systèmes d'intelligence artificielle », déclare-t-il.
C’est la raison pour laquelle il soutient que l’atteinte de l’intelligence artificielle générale ne se fera pas par le biais des grands modèles de langage. Il conseille d’ailleurs aux jeunes étudiants qui envisagent d’intégrer la filière de se lancer dans les systèmes d’intelligence artificielle du futur qui lèvent les limitations des grands modèles de langage.
En effet, l’un des inconvénients avec les grands modèles de langage est l’hallucination. C’est en raison de cette limitation incontournable chez les LLM, selon une étude, que ChatGPT a créé de fausses histoires sur de nombreuses personnes à travers le monde et cite parfois même des sources inexistantes pour étayer ses récits. Dans un cas aux États-Unis, ChatGPT a inventé un scandale de harcèlement sexuel et a désigné un vrai professeur de droit comme l'accusé. En Australie, il a accusé à tort un maire de corruption avec de fausses preuves. De telles histoires pullulent sur Internet, y compris en France.
Jonathan Turley, professeur de droit à l'université George Washington, a soudainement appris qu'il était l'accusé dans une affaire de harcèlement sexuel. Le professeur n'avait pas connaissance de cette histoire jusqu'à présent parce qu'elle vient tout juste d'être inventée de toutes pièces par ChatGPT. En fait, dans le cadre d'une étude, un collègue avocat californien a demandé à ChatGPT de générer une liste de juristes ayant harcelé sexuellement quelqu'un. À sa grande surprise, le nom de Turley figurait sur la liste générée par le Chatbot d'IA d'OpenAI. Le collègue a ensuite envoyé un courriel à Turley pour l'informer de sa découverte.
« Nous nous dirigeons à grands pas vers un Internet fortement influencé par l'IA, bourré de pépins, de spams et d'escroqueries », a récemment écrit un journaliste du MIT Technology Review. Dans une affaire judiciaire inhabituelle, un avocat a été sanctionné par un juge pour avoir cité six affaires fictives générées par ChatGPT. ChatGPT a causé des ennuis à un avocat qui l’a utilisé pour citer des affaires imaginaires dans un document juridique. Le juge était furieux et a menacé de le sanctionner. Quand le juge a demandé les copies des affaires, l’avocat a fait appel à ChatGPT, qui a inventé des informations sur les affaires fantômes.
L’avocat, Steven Schwartz, défendait un homme qui attaquait Avianca en justice après avoir été blessé au genou par un chariot de service pendant un vol vers New York en 2019. Schwartz a dit qu’il ne connaissait pas ChatGPT et qu’il ignorait qu’il fabriquait des affaires. Il a même dit qu’il avait vérifié avec ChatGPT si les affaires étaient vraies. Le chatbot a dit que oui.
Le juge a qualifié cette pratique d’ « inédite » et de « trompeuse », et a ordonné à l’avocat de payer une amende de 10 000 dollars et de suivre une formation sur l’éthique professionnelle. Le juge a également mis en garde contre les risques de l’utilisation de l’intelligence artificielle dans le domaine juridique, et a appelé à une réglementation plus stricte. L’avocat a cité six affaires fictives dans ses mémoires. Ces affaires avaient été générées par ChatGPT, un système d’intelligence artificielle qui produit du texte à partir d’un mot-clé. Il a présenté ses excuses et a affirmé qu’il ne recommencerait plus.
C’est pour ces raisons que Tom Dietterich de l’université de l’Oregon propose plutôt de travailler sur des système d’intelligence artificielle modulaires qui savent faire la distinction entre les aptitudes linguistiques et la connaissance du monde réel et, entre autres, créer et mettre à jour la connaissance du monde réel.
C’est une combinaison de ces ingrédients qui devrait permettre de déboucher sur des systèmes qui lèvent les limitations des grands modèles de langage. Le responsable de la division intelligence artificielle de Meta et ses équipes se donnent une dizaine d’années pour parvenir à une intelligence artificielle de niveau humain.
Source : Geoffrey Hinton
Et vous ?
Quelle pertinence trouvez-vous à ces différents propos en lien avec l’intelligence artificielle ? Sont-ils plus sensationnalistes qu’autre chose ?
Quelle appréciation faites-vous de la position de l’expert français Yann Lecun sur le sujet ?
Voir aussi :
« L'IA est susceptible de devenir plus intelligente que les Hommes contre lesquels elle pourra donc se retourner et les exterminer », préviennent des chercheurs sur une possible future apocalypse
Pour Bill Gates, l'IA est l'avancée technologique la plus importante depuis des décennies, il vient de publier une lettre de 7 pages sur l'IA et ses prédictions pour son avenir
« Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk dont une société développe des puces à insérer dans le cerveau pour contrer l'IA
« Les appels à suspendre le développement des systèmes d'IA ne résoudront pas les défis liés à leur mise sur pied », d'après Bill Gates qui entrevoit l'échec d'un consensus à l'échelle mondiale
Le PDG d'OpenAI estime que l'approche actuelle de l'IA va bientôt atteindre ses limites, la mise à l'échelle des modèles LLM cessera d'apporter des améliorations à l'IA, selon lui