IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un expert en IA affirme que ChatGPT est beaucoup plus "stupide" que les gens le pensent
Et suggère que le chatbot est plus proche d'un outil de recherche que d'une intelligence générale artificielle

Le , par Bill Fassinou

1PARTAGES

17  0 
Rodney Brooks, chercheur en robotique et expert en IA, a déclaré dans une récente interview que les grands modèles de langage comme GPT-4 et Bard sont beaucoup plus "stupides" qu'on le pense et qu'ils sont encore loin de pouvoir rivaliser avec l'intelligence humaine dans n'importe quelle tâche. Le chercheur ajoute que le grand public, ainsi que certains de ses pairs, a une perception trop exagérée des grands modèles de langage et que l'humanité a fait de nombreuses erreurs d'appréciation en prédisant les capacités futures de l'IA. En outre Brooks considère plus ChatGPT comme un puissant outil de recherche que d'un système proche d'une intelligence générale artificielle.

Rodney Brooks est chercheur en robotique, universitaire, entrepreneur et expert en IA. Il a notamment dirigé le laboratoire de recherche en informatique et en IA du MIT (CSAIL) jusqu'en 2007, et a occupé des postes de professeur à l'université Carnegie Mellon et à l'université de Stanford avant cela. Brooks a récemment accordé une interview à IEEE Spectrum dans lequel il aborde l'un des sujets les plus discutés actuellement dans l'industrie : les grands modèles de langage (LLM). L'entretien a révélé que Brooks ne considère pas les LLM actuels avec autant d'appréhension que certains de ses pairs, notant même que l'on a tendance à exagérer les choses.

Lors de l'interview, Brooks a affirmé que les gens ont largement surestimé les grands LLM et que ces outils sont bien plus "stupides" que nous ne le pensons, sans parler du fait qu'ils sont loin de pouvoir rivaliser avec les humains sur le plan intellectuel, quelle que soit la tâche à accomplir. Dans l'ensemble, dit-il, l'on est coupable d'avoir mal prédit l'avenir de l'IA. Les questions de la publication allaient dans le sens suivant : l'IA est-elle prête à devenir une intelligence générale artificielle (IGA) capable de fonctionner à un niveau intellectuel similaire à celui de l'homme ? « Non, parce qu'elle n'a pas de modèle sous-jacent du monde », a répondu l'universitaire.


Rodney Brooks

« Elle n'a aucun lien avec le monde. Il s'agit d'une corrélation entre les langages », a-t-il ajouté. Les commentaires de Brooks contrastent avec certains commentaires récents d'entreprises ou d'experts du domaine de l'IA sur les modèles IA. Par exemple, après avoir mené plusieurs expériences sur GPT-4, des chercheurs de Microsoft ont affirmé que le LLM d'OpenAI montrait des "étincelles" d’une intelligence comparable à celle des humains. Mais Brooks affirme que les modèles d'IA actuels ne sont pas "intelligents", mais "stupides", car ils ne sont pas capables de déduire logiquement le sens du langage, même s'ils donnent l'impression de pouvoir le faire.

Ce qui peut facilement induire l'utilisateur en erreur. « Lorsque nous observons les actions d'une personne, nous évaluons rapidement ses capacités générales et portons des jugements. Cependant, nos méthodes de généralisation de la performance à la compétence ne s'appliquent pas aux systèmes d'IA. Ce que les grands modèles de langage savent faire, c'est dire à quoi une réponse devrait ressembler, ce qui est différent de ce qu'une réponse devrait être », a déclaré Brooks. Selon lui, "les grands modèles d'IA excellent dans la production de réponses qui semblent correctes, ce qui est différent de la réalité". Il ajoute que les LLM se trompent très souvent.

Le chercheur a expliqué qu'il avait expérimenté de grands modèles de langage pour l'aider dans le "codage obscur", mais qu'il s'était heurté à de sérieux problèmes. « Il donne une réponse en toute confiance, et je la crois en quelque sorte. La moitié du temps, elle est complètement fausse. Je passe deux ou trois heures à utiliser cet indice, puis je me dis que cela n'a pas fonctionné, et le logiciel fait autre chose. Ce n'est pas la même chose que l'intelligence et ce n'est pas de l'interaction. C'est de la recherche », a déclaré Brooks. D'ailleurs, l'universitaire suggère que la recherche avec ChatGPT est beaucoup plus simple que la recherche traditionnelle.

En bref, Brooks pense que les futures itérations de la technologie pourraient aboutir à des résultats intéressants, "mais pas à l'IGA". Si Brooks a raison de dire que les robots d'IA d'aujourd'hui ne sont pas aussi intelligents qu'on le dit, alors nous sommes peut-être dans le pétrin. Le simple fait d'apprendre que l'IA peut accomplir la plupart des tâches, en particulier les emplois de débutants et certains emplois de haut niveau, a fait imploser l'industrie technologique sur elle-même et provoqué des milliers de licenciements. Par exemple, plusieurs illustrateurs a déclaré avoir perdu leurs emplois au profit des systèmes d'IA de génération d'œuvres d'art.

Brooks travaille dans le domaine depuis un certain temps déjà et en est à sa troisième entreprise de robotique, Robust.AI. En supposant que Brooks ait raison, tout ce que l'on vit à propos de l'IA - l'euphorie, la peur ou tout autre sentiment - n'est rien d'autre que de l'hystérie de masse, à un niveau sans précédent. L'essentiel de son scepticisme réside dans la façon dont les modèles d'IA fonctionnent. Il a suggéré que l'absence de véritable moyen de déchiffrer le contexte de la situation et d'un manque général de conscience de soi, l'IA se contente de régurgiter des informations jusqu'à ce qu'elles touchent la bonne corde sensible de votre cerveau.

Si Brooks trouve que les systèmes d'IA actuels sont "stupides", l'écrivain Jim McDermott pense de son côté que ChatGPT n'est pas une IA, mais plutôt un "voleur". Il a publié un billet de blogue dans lequel il affirme que ces programmes ne sont pas des IA, mais des voleurs qui s'appuient sur les productions d’autres auteurs sans leur accord. Il les compare à des ateliers de démontage qui pillent le travail des créateurs et le transforment en nouveaux produits. Selon lui, ChatGPT pose des questions éthiques et juridiques sur la propriété intellectuelle, le droit d’auteur et l’utilisation équitable quand la création peut être réduite à des unités microscopiques.

« Nous avons qualifié les programmes qui font ce travail d'IA. À première vue, la réalité de ce concept n'a jamais été aussi convaincante. Ces programmes génèrent en un instant des œuvres complètes et apparemment originales. Ils peuvent également communiquer avec une personne d'une manière qui ressemble à une véritable conversation. Mais en fait, pour l'instant en tout cas, ces programmes ne sont pas sensibles. Ils ne sont qu'une forme très complexe du type de système de prédiction de texte que l'on trouve dans Gmail ou Google Docs », a déclaré McDermott. Il appelle à une prise de conscience et à une régulation de ces programmes.

Par contre, selon les plus optimistes, comme Demis Hassabis, PDG de Deepmind, l'industrie est tout à fait capable d'atteindre une IGA dans une décennie. Hassabis a déclaré qu’à cette date, les machines seront alors dotées de bon sens et seront capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur les raisons pour lesquelles les choses se produisent. En attendant d’y être, il recommande d’opter pour le développement responsable des systèmes d’IA pour une transition en douce.

Source : Interview de Rodney Brooks, chercheur en robotique et expert en IA

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des déclarations de Rodney Brooks ?
Selon vous, ChatGPT est-il "stupide" comme l'explique Rodney Brooks ?
GPT-4 est-il beaucoup plus un outil de recherche qu'une intelligence générale artificielle ?
Que pensez-vous des déclarations selon lesquelles l'industrie se rapproche d'une intelligence générale artificielle ?

Voir aussi

La solution du GPT-4 à l'énigme de l'œuf équilibré aurait convaincu Microsoft que l'AGI, intelligence artificielle générale, est plus proche, selon Microsoft Research

Les capacités émergentes des grands modèles linguistiques sont-elles un mirage ? Les grands modèles linguistiques ne sont pas supérieurs à la somme de leurs parties, selon des chercheurs de Stanford

ChatGPT ne serait pas une intelligence artificielle. « C'est du vol », estime l'écrivain Jim McDermott, il pense que ces programmes menacent la valeur et la dignité de la création humaine

« L'atteinte d'une forme d'intelligence artificielle de niveau humain (AGI) est possible dans une décennie », d'après le PDG de Google Deepmind pour le développement responsable des systèmes d'IA

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de JackIsJack
Membre éclairé https://www.developpez.com
Le 23/05/2023 à 5:24
Sa conclusion n'est ettayée d'aucune expérience factuelle et répétable, et surtout, il ignore les expériences qui mènent aux conclusions inverses.

Encore un qui est dans le deni pour sauver son égo construit autour de "au moins je suis intelligent".
1  1 
Avatar de Gulien
Membre habitué https://www.developpez.com
Le 23/05/2023 à 17:21
Quand bien même les modèles à base de LLM seraient plus comparables à un moteur de recherche (très) sophistiqué qu'à une "vrai" IA, ce n'est qu'une partie émergée de l'iceberg ...
Mais tout de même, rien que cette facette est extraordinaire ... Des Trilliards de données pré-entrainées sur des textes qui en valent la peine. Autant dire que ces IAs possèdent déjà une base de connaissance qu'aucun être humain n'est capable d'ingurgiter aujourd'hui.

Après, lorsqu'on parle d' "Intelligence", de quoi parle-t-on ? de conscience ? Qui douterait aujourd'hui que des simulations de conscience tourne dans les laboratoires ?
Lorsqu'on voit les progrès en quelques mois, où une simple carte graphique donne accès à des LLM très élaborés (LLama et ses forks)
Une première étape est de faire en sorte que l'IA se parle à elle-même, une sorte d'introspection, et cela se fait déjà.
Ensuite on peut tout imaginer.

Si la question est de savoir si les IA à venir penseront comme l'humain, auront de l'empathie, une âme, pourraient "aimer" ... En quelque sorte posséder une Intelligence émotionnelle ... Pour ces questions il faut sortir la boule de Crystal.
De mon point de vue les IA auront autant à voir avec nous que les insectes ont à voir avec les mammifères : Ces êtres ont beaucoup de similitudes mais aussi beaucoup de différences.

Ensuite au rythme où ça va, on peut aussi penser qu'un modèle d'émotion et d'empathie soit mis en place et mélangé au reste.
Où se finit l'artificiel ? Ou commence le réel ? L'Ocytocine? La Dopamine ?

J'imagine que des ouvrages couvrent bien mieux le sujet que mon petit commentaire, mais critiquer une science qui n'en est qu'à ses débuts et qui dépassera certainement l'imaginable dans les années à venir, fait penser à une auto-défense bien futile. Je comprends mieux ceux qui en ont peur que ceux qui croient à un vaste perroquet sans cervelle.
1  1 
Avatar de Gulien
Membre habitué https://www.developpez.com
Le 24/05/2023 à 9:46
Citation Envoyé par eric44000 Voir le message
Les mots ont un sens. L'intelligence n'est pas la conscience et vice versa. Confondre l'intelligence et la conscience est un problème psychiatrique, schizophrénique en l’occurrence.
Je comprends, je pense que c'est un abus de langage... Il faudrait voir ça plutôt dans le sens :

Que manque-t-il aujourd'hui aux LLM (et modules qui le font fonctionner) pour en faire quelque-chose de plus intelligent qu'un moteur de recherche++ ?
Et de ce point de vue, je rejoins l'avis de l'auteur, je pense que la conscience serait un bon début ... Celle-ci permettrait de donner une matière, un sens à ces connaissances.

Résoudre un problème c'est bien, mais pouvoir comprendre son implication, améliorer le résultat, y réfléchir en autonomie, cela serait encore mieux...

Citation Envoyé par eric44000 Voir le message

C'est de la science-fiction. L'ingénieur de Google qui pensait que son IA était consciente a été placé en congé administratif. Et ce monsieur n'a toujours pas pris conscience de son délire.
Et ? Ais-je dis que c'était au point aujourd'hui ? Tu douterais qu'il y ait des projets de simulation de conscience en labo aujourd'hui ? Chacun son avis.

Citation Envoyé par eric44000 Voir le message

Oui, il existe une extension dans Firefox qui permet de faire dialoguer ChatGPT avec ChatGPT. Le résultat est stérile.
Même réponse ... Pour l'instant.

Citation Envoyé par eric44000 Voir le message

Il existe des IA qui permettent de suivre la variation de l'humeur pour adapter une réponse transactionnelle adéquate. Elle simule une intelligence émotionnelle mais là encore, il ne faut pas confondre intelligence et conscience.

Ce sont les critiques qui font progresser. Mais les critiques de ce monsieur sont infondées. Par ailleurs, une IA consciente est faisable et ne dépasse pas l'imaginable. Tous les informaticiens savent modéliser le réel. Je ne vois pas pourquoi il en serait différent du cerveau.
Effectivement simuler une conscience ça parait imaginable (pourtant tu parles de science-fiction juste au dessus) ... Dépasser l'imaginable c'est un cran au dessus à mon avis.
Alors évidemment on peut tout imaginer donc ma dernière phrase n'a pas beaucoup de sens, mais je pense que les que les implications/résultats de l'IA dépasseront le cadre de ce que nous évoquons.

Je me rends compte en relisant l'article un peu mieux qu'il y a un grand mélange de débat entre ce que sont réellement les LLM aujourd'hui, et le devenir de l'IA.
Donc je m'arrête là, oui aujourd'hui il y a des limites qui sont bien visibles ... Quand à demain, tôt ou tard, ça sera une révolution.
1  1 
Avatar de BufferBob
Expert éminent https://www.developpez.com
Le 31/05/2023 à 1:48
Citation Envoyé par Gulien Voir le message
Après, lorsqu'on parle d' "Intelligence", de quoi parle-t-on ? de conscience ?
la question se pose, à plus forte raison parce qu'on ne sait toujours pas vraiment définir ce qui est conscient ou non autrement qu'à travers des comportements indirects (comme l'évitement de la douleur, le test du miroir etc.), c'est bien plus l'objet d'étude des neurosciences, qui traitent la conscience de manière globale, que celui de la psychologie au sein de laquelle on distingue le conscient de l'inconscient.

Citation Envoyé par Gulien Voir le message
Qui douterait aujourd'hui que des simulations de conscience tourne dans les laboratoires ?
il y a de nombreux projets qui travaillent sur la question, on peut citer par exemple le fameux Human Brain Project, et y compris encore eux, les neuroscientifiques qui travaillent sur ces sujets et dont certaines expériences consistent à implémenter des portions de "cerveau" minimaux pour par exemple voir s'ils y décèlent des embrasements neuronaux, supposés caractéristiques. c'est par exemple ce qu'explique ce chercheur à la fin de la vidéo (à 24:54)

0  0 
Avatar de eric44000
Membre averti https://www.developpez.com
Le 23/05/2023 à 22:53
Citation Envoyé par Gulien Voir le message
Après, lorsqu'on parle d' "Intelligence", de quoi parle-t-on ? de conscience ?
Les mots ont un sens. L'intelligence n'est pas la conscience et vice versa. Confondre l'intelligence et la conscience est un problème psychiatrique, schizophrénique en l’occurrence.

Citation Envoyé par Gulien Voir le message
Qui douterait aujourd'hui que des simulations de conscience tourne dans les laboratoires ?
C'est de la science-fiction. L'ingénieur de Google qui pensait que son IA était consciente a été placé en congé administratif. Et ce monsieur n'a toujours pas pris conscience de son délire.

Citation Envoyé par Gulien Voir le message
Une première étape est de faire en sorte que l'IA se parle à elle-même, une sorte d'introspection, et cela se fait déjà.
Oui, il existe une extension dans Firefox qui permet de faire dialoguer ChatGPT avec ChatGPT. Le résultat est stérile.

Citation Envoyé par Gulien Voir le message
Si la question est de savoir si les IA à venir penseront comme l'humain, auront de l'empathie, une âme, pourraient "aimer" ... En quelque sorte posséder une Intelligence émotionnelle ...
Il existe des IA qui permettent de suivre la variation de l'humeur pour adapter une réponse transactionnelle adéquate. Elle simule une intelligence émotionnelle mais là encore, il ne faut pas confondre intelligence et conscience.

Citation Envoyé par Gulien Voir le message
critiquer une science qui n'en est qu'à ses débuts et qui dépassera certainement l'imaginable dans les années à venir
Ce sont les critiques qui font progresser. Mais les critiques de ce monsieur sont infondées. Par ailleurs, une IA consciente est faisable et ne dépasse pas l'imaginable. Tous les informaticiens savent modéliser le réel. Je ne vois pas pourquoi il en serait différent du cerveau.
0  2 
Avatar de eric44000
Membre averti https://www.developpez.com
Le 23/05/2023 à 0:49
Que Rodney Brooks fasse son métier d'expert en IA. Il n'a aucune connaissance en psychologie et se croit compétent pour parler intelligence. Affirmer la stupidité de l'IA de façon péremptoire est la preuve flagrante de son ignorance. D'une part parce que le stupide est une basse intelligence. Dire stupide est quantifier un niveau d'intelligence. Donc ce monsieur se contredit sans même s'en apercevoir. D'autre part, son argumentation n'est pas scientifique. Il se place dans le domaine des apparences de bas étages puis développe sa rhétorique illusoire.
Ce n'est pas parce que les LLM n'ont pas de modèle sous-jacent du monde qu'ils n'ont de forme d'intelligence. Qu'il demande à un psychologue de faire passer des tests d'intelligence aux LLM et il serait surpris du résultat !
1  5