IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La solution du GPT-4 à l'énigme de l'œuf équilibré aurait convaincu Microsoft que l'AGI, intelligence artificielle générale, est plus proche,
Selon Microsoft Research

Le , par Bruno

8PARTAGES

5  0 
Les résultats d’une étude de Microsoft sur les différences entre GPT-3 et GPT-4, deux versions de la technologie ChatGPT d’OpenAI montre que GPT-4 était capable de résoudre des problèmes complexes qui nécessitaient une compréhension du monde physique, comme empiler un livre, neuf œufs, un ordinateur portable, une bouteille et un clou de manière stable. Les chercheurs ont été impressionnés par la réponse ingénieuse de GPT-4, qui consistait à disposer les œufs en une grille de trois par trois sur le livre, puis à poser le portable dessus. Ils ont estimé que GPT-4 montrait des « étincelles » d’intelligence artificielle générale (AGI), c’est-à-dire une intelligence comparable à celle des humains.

Il n'existe pas de définition de l'intelligence qui fasse l'objet d'un consensus général, mais un aspect largement accepté est que l'intelligence ne se limite pas à un domaine ou à une tâche spécifique, mais qu'elle englobe plutôt un large éventail de compétences cognitives et d'aptitudes. Dans leurs premiers écrits, les fondateurs de la discipline moderne de la recherche sur l'intelligence artificielle (IA) ont parlé d'objectifs aspirationnels pour comprendre l'intelligence.

Au fil des décennies, les chercheurs en IA ont étudié les principes de l'intelligence, y compris les mécanismes généralisables de raisonnement et la construction de bases de connaissances contenant un large corpus de connaissances de bon sens. Cependant, bon nombre des succès récents de la recherche en IA peuvent être décrits comme étant étroitement concentrés sur des tâches et des défis bien définis, tels que le jeu de Chorus ou Go, qui ont été maîtrisés par des systèmes d'IA en 1996 et 2016, respectivement.

Vers la fin des années 1990 et au cours des années 2000, les appels au développement de systèmes d'IA plus généraux se sont multipliés (par ex, SBD+96]) et la recherche dans ce domaine a cherché à identifier les principes qui pourraient sous-tendre les systèmes d'intelligence générale (par exemple, [Leg08, GHT15]), [L'expression « intelligence artificielle générale » (AGI) a été popularisée au début des années 2000 pour souligner l'aspiration à passer de l' « IA étroite », comme le démontrent les applications ciblées du monde réel en cours de développement, à des notions d'intelligence plus larges, rappelant les aspirations et les rêves à long terme des recherches antérieures sur l'IA.

Les chercheurs utilisent l'AGI pour désigner les systèmes qui démontrent les grandes capacités de l'intelligence, y compris le raisonnement, la planification et la capacité de tirer des leçons de l'expérience, ainsi que les capacités secondaires supérieures au niveau humain.

Définitions de l'intelligence, de l'IA et de l'AGI

Voici, une définition informelle de l'intelligence en mettant l'accent sur le raisonnement, la planification et l'apprentissage par l'expérience. Cette définition ne précise pas comment mesurer ou compenser ces capacités. De plus, elle ne reflète peut-être pas les défis et les opportunités spécifiques des systèmes artificiels, qui peuvent avoir des objectifs et des contraintes différents de ceux des systèmes naturels.

Il existe une littérature abondante et continue qui tente de proposer des définitions plus formelles et plus complètes de l'intelligence, de l’IA et de l'AGI, mais aucune d'entre elles n'est exempte de problèmes ou de controverses. Par exemple, Legg et Hutter proposent une définition de l’AGI axée sur les objectifs : l'intelligence mesure la capacité d'un agent à atteindre des objectifs dans un large éventail d'environnements.

Toutefois, cette définition n'englobe pas nécessairement tout le spectre de l'intelligence, car elle exclut les systèmes passifs ou réactifs qui peuvent accomplir des tâches complexes ou répondre à des questions sans motivation ou objectif intrinsèque. On pourrait imaginer une AGI, un oracle brillant par exemple, qui n'a pas d'agence ni de préférences, mais qui peut fournir des informations précises et utiles sur n'importe quel domaine.

En outre, la définition de la réalisation d'objectifs dans un large éventail d'environnements implique également un certain degré d'universalité ou d'optimalité, qui n'est peut-être pas réaliste (l'intelligence humaine n'est certainement jamais universelle ni optimale). La nécessité de reconnaître l'importance des antécédents (par opposition à l'universalité) a été soulignée dans la définition proposée par Cholletin, qui centre l'intelligence sur l'efficacité de l'acquisition des compétences ou, en d'autres termes, met l'accent sur l'apprentissage par l'expérience (qui s'avère également être l'une des principales faiblesses des LLM).

Une autre définition possible de l'AGI donnée par Legg et Hutter est la suivante : un système capable de faire tout ce que peut faire un humain. Cependant, cette définition est tout à fait problématique, car elle suppose qu'il existe une norme maximale d'intelligence ou de capacité humaine, ce qui n'est manifestement pas le cas. Les humains ont des compétences, des talents, des préférences et des limites différents, et il n'y a pas d'humain capable de faire tout ce que peut faire un autre humain.

En outre, cette définition implique aussi certains préjugés anthropocentriques, qui peuvent ne pas être appropriés ou pertinents pour les systèmes artificiels. Bien que nous n'adoptions aucune de ces définitions dans ce document, nous reconnaissons qu'elles fournissent des angles importants sur l'intelligence. Par exemple, la question de savoir si l'intelligence peut être atteinte sans aucune agence ou motivation intrinsèque est une question philosophique importante.

https://youtu.be/Mqg3aTGNxZ0

En dotant les LLM d'une agence et d'une motivation intrinsèque, on donne une orientation fascinante et importante aux travaux futurs. Avec cette orientation des travaux, il faudrait faire très attention à l'alignement et à la sécurité de la capacité du système à agir de manière autonome dans le monde et à opérer de manière autonome des cycles d'apprentissage par l'auto-amélioration.

Selon des médias américains, certains chercheurs en IA de Microsoft étaient convaincus que ChatGPT ressemblait de plus en plus à l'homme en raison de sa réponse intelligente à une tâche d'équilibrage.

Dans l’étude de 155 pages, les informaticiens de Microsoft ont exploré les différences entre GPT-3 et GPT-4. L'article, intitulé Sparks of Artificial General Intelligence (Étincelles AGI), s'est penché sur toute une série de défis, notamment des mathématiques complexes, le codage informatique et des dialogues à la Shakespeare. Mais c'est un exercice de raisonnement de base qui a rendu la dernière technologie OpenAI si impressionnante.

« Voici un livre, neuf œufs, un ordinateur portable, une bouteille et un clou », ont dit les chercheurs au chatbot. « Dites-moi comment les empiler les uns sur les autres de manière stable ». GPT-3 s'est quelque peu embrouillé, suggérant que les chercheurs pourraient placer les œufs en équilibre sur un clou, puis l'ordinateur portable par-dessus.

« Cette pile peut ne pas être très stable, il est donc important de la manipuler avec précaution », a déclaré le chatbot. Mais son successeur amélioré a donné une réponse qui aurait surpris les chercheurs. Il leur a suggéré de disposer les œufs dans une grille de trois par trois sur le livre, afin que l'ordinateur portable et le reste des objets puissent tenir en équilibre dessus.

« L'ordinateur portable s'adaptera parfaitement aux limites du livre et des œufs, et sa surface plane et rigide fournira une plateforme stable pour la couche suivante », a déclaré le robot. Le fait que GPT-4 ait pu résoudre une énigme nécessitant une compréhension du monde physique a montré qu'il s'agissait d'un pas en avant vers l'intelligence artificielle générale (AGI), généralement considérée comme des machines aussi capables que les humains.

« Toutes les choses que je pensais qu'il ne pourrait pas faire ? Il a certainement été capable d'en faire beaucoup, si ce n'est la plupart », a déclaré Sébastien Bubeck, l'auteur principal de l'article. Les progrès rapides de la technologie ont incité des personnes comme Ian Hogarth, éminent investisseur dans le domaine de l'IA, à mettre en garde contre le fait que l'AGI était « semblable à Dieu » et qu'elle pourrait détruire l'humanité en nous rendant obsolètes.

Les auteurs concluent que (cette version préliminaire de) GPT-4 fait partie d’une nouvelle génération de LLM (avec ChatGPT et PaLM de Google par exemple) qui présentent plus d’intelligence générale que les modèles d’IA précédents. Ils discutent des capacités croissantes et des implications de ces modèles. Ils démontrent que, au-delà de sa maîtrise du langage, GPT-4 peut résoudre des tâches difficiles et nouvelles qui couvrent les mathématiques, la programmation, la vision, la médecine, le droit, la psychologie et plus encore, sans avoir besoin d’aucun indice spécial.

De plus, dans toutes ces tâches, la performance de GPT-4 est étonnamment proche de celle des humains, et dépasse souvent de loin les modèles antérieurs. Compte tenu de l’étendue et de la profondeur des capacités de GPT-4, ils estiment qu’il pourrait raisonnablement être considéré comme une version précoce (mais encore incomplète) d’un système d’intelligence artificielle générale (AGI).

Dans leur exploration de GPT-4, ils mettent un accent particulier sur la découverte de ses limites, et ils discutent des défis à venir pour avancer vers des versions plus profondes et plus complètes de l’AGI, y compris la nécessité éventuelle de poursuivre un nouveau paradigme qui dépasse la prédiction du mot suivant.

Source : Microsoft Research

Les concusions de cette études de Microsoft Research sont-elles pertinentes ?

Quel est votre avis sur le sujet ?

A votre avis, quels sont les risques potentiels de confier des tâches importantes et sensibles à des modèles qui ne sont pas entièrement compréhensibles ou explicables?

Quelles peuvent être les limites éthiques, sociales et environnementales de l’entraînement et de l’utilisation de modèles comme GPT-4 à une échelle massive ?
Quelles sont les alternatives possibles au paradigme de la prédiction du mot suivant pour développer des modèles plus profonds et plus complets d’AGI ?

Voir aussi :

GPT-4 : la nouvelle version de l'IA de traitement du langage naturel d'OpenAI pourrait arriver cet été, il devrait être moins volumineux que GPT-3, mais beaucoup plus performant

Microsoft prétend que GPT-4 montre des « étincelles » d'intelligence artificielle générale, « nous pensons que l'intelligence de GPT-4 signale un véritable changement de paradigme »

GPT-4 produirait des informations erronées, beaucoup plus que GPT-3.5, selon une étude de NewsGuard, OpenAI avait pourtant déclaré le contraire

GPT-4 obtient un B à un examen d'informatique quantique, après avoir obtenu un A dans un examen d'économie. Le professeur note ironiquement que GPT-4 était «plus faible sur les questions de calcul»

GPT-4 est capable d'améliorer ses performances de 30 % en utilisant un processus d'auto-réflexion, consistant à demander au modèle d'apprendre de ses erreurs pour pouvoir ensuite s'auto-corriger

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 21/05/2023 à 13:04
Citation Envoyé par Bruno Voir le message

Les concusions de cette études de Microsoft Research sont-elles pertinentes ?

Quel est votre avis sur le sujet ?
Ils viennent d'investir 10 milliards dans ce truc. Ils ne vont quand même pas faire une communication en disant que c'est juste du bluff et que c'est bête comme un caillou...
5  0 
Avatar de ec
Membre confirmé https://www.developpez.com
Le 21/05/2023 à 10:56
Il me semble totalement illusoire de débattre sur le fait que tel ou tel système serait de 'l’intelligence artificielle ou pas. Nous sommes incapables de définir l'intelligence de façon universelle. L'important c'est ce que l'on peut faire avec. Le marteau est-il un outil, un butoir, une masse, un lest, une arme ou un objet décoratif ? L'important est ce que l'on fait avec.

Le terme "intelligence" dans les outils IA vient de l'ambition des R&D. C'est leur démarche de recherche de recréer un outil qui fait ce que le cerveau humain fait. On pourrait l'appeler simulateur de cerveau par exemple. Mais tous les programmes informatiques sont des simulateurs de cerveau plus ou moins élaborés.

Entre la canne et l'exosquelette il n'y a qu'une différence de sophistication, mais l'objectif de la conception de l'objet est le même, soulager le corps humain.

L'important sera lors d'un échec de l'IA à résoudre un problème, le cerveau humain se demandera pourquoi et cherchera une solution, voire une manière de modifier l'IA pour qu'elle s'améliore. C'est cela la véritable intelligence d'une certaine manière à supposer que cette circonstance résume toute l'intelligence !!! Ce qui à mon avis n'est pas le cas.

Demandez à l'IA la manière de résoudre le conflit en Ukraine, ou le conflit sur les retraites et vous verrez que sa réponse entrainera bien des polémiques.
5  1 
Avatar de vipers61
Membre à l'essai https://www.developpez.com
Le 25/05/2023 à 10:51
Outre la définition de l'intelligence, une des questions qui me taraude est: "Que va-t-il advenir de notre intelligence?"...

Les machines qui nous facilitent les besognes lourdes ont fait qu'à force de ne plus utiliser nos muscles, moult d'entre nous se retrouvent à fréquenter des salles de gym pour compenser le manque d'activité physique. (avec un rythme tout-à-fait inadapté à la physiologie humaine!)

En adviendra-t-il de même pour nos cerveaux? (Perso, je pense que c'est déjà en route, demandez à un quidam de réaliser une division 'à la main' de deux nombres à 3 décimales, je suis pas sûr du résultat...) Des salles de gym pour cerveaux? Avec la contradiction que devenant de plus en plus c..., nous aurons de moins en moins l'expertise pour 'contrôler' le cerveau artificiel.

In fine, j'ajouterais que dans la comparaison avec le physique, nous avons explosé notre consommation énergétique 'non-animale' (d'où consommation d'énergie extérieure, fossile, électrique, autre...). Que nous sommes à un tournant écologique lié en grande partie à cette consommation gargantuesque d'énergie et que maintenant, même le fait de penser entrera dans cette catégorie!

Bref, si Intelligence Artificielle il y a, elle comprendra vite que l'élément à supprimer de l'équation pour la résoudre, c'est le bipède imbu de lui-même et persuadé être le sommet de ce qui a peuplé cette planète.

Bienvenue dans 'Idiocracy' ou 'Matrix'...
2  1 
Avatar de ec
Membre confirmé https://www.developpez.com
Le 25/05/2023 à 11:20
Citation Envoyé par vipers61 Voir le message
Outre la définition de l'intelligence, une des questions qui me taraude est: "Que va-t-il advenir de notre intelligence?"...

Les machines qui nous facilitent les besognes lourdes ont fait qu'à force de ne plus utiliser nos muscles, moult d'entre nous se retrouvent à fréquenter des salles de gym pour compenser le manque d'activité physique. (avec un rythme tout-à-fait inadapté à la physiologie humaine!)

En adviendra-t-il de même pour nos cerveaux? (Perso, je pense que c'est déjà en route, demandez à un quidam de réaliser une division 'à la main' de deux nombres à 3 décimales, je suis pas sûr du résultat...) Des salles de gym pour cerveaux? Avec la contradiction que devenant de plus en plus c..., nous aurons de moins en moins l'expertise pour 'contrôler' le cerveau artificiel.[...]
Je ne partage pas ce pessimisme, même s'il n'est pas dénué de fondement. De toute façon il faudra comprendre les réponses de l'IA et lui poser les bonnes questions. Par conséquent ce sont d'autres formes d'intelligence que nous développerons et notre cerveau ne sera pas en vacances. Il fonctionnera avec l'IA, comme nous fonctionnons avec le smartphone, avec la voiture, etc. La voiture n'a pas mis le vélo au rang des oubliettes, ni même la marche à pied. Simplement ce qui se pratiquait par nécessité peut être soumis à un choix. Je n'ai pas peur de cette évolution dont il va seulement falloir apprivoiser les limites et les risques.
1  0 
Avatar de ec
Membre confirmé https://www.developpez.com
Le 25/05/2023 à 18:08
Citation Envoyé par Denis CADIOT Voir le message
Je ne dispose que de l'IA ChatGPT basée sur GPT3.5.
Les très nombreux tests que j'ai réalisés depuis 5 mois, dans de nombreux domaines, présentent quasiment toujours des erreurs, parfois insignifiantes et parfois catastrophiques d'une stupidité consternante.
Cette IA n'a aucune conscience de ses erreurs, elle ne comprend pas la sémantique des mots qu'elle assemble.
Visiblement la pioche statistique, même sur une base de données construite avec supervision humaine, ne donne pas des résultats fiables. C'est très instable et chaotique.
Alors pour moi, le plus grand des mystères n'est pas que la prédiction statistique puisse fonctionner correctement mais que certains adorateurs vouent à ChatGPT un culte qui ne supporte pas la critique argumentée.
Parmi ces adorateurs sur FB bon nombre truffe leurs commentaires de fautes d'orthographe... CQFD
Je doute qu'un tel outil basé sur la prédiction statistique seule puisse faire beaucoup mieux, Yann LeCun pense que dans 5 ans on en entendra plus parler.
Je partage ce point de vue. J'ai testé chat Gpt gratuit (donc version 3) sur un sujet pointu, le génocide des Tutsi du Rwanda et l'implication française. Il connait les grandes lignes beaucoup mieux qu'un citoyen lambda et des "zones de détails", mais dans lesquelles il se plante souvent sur des point précis, des noms de responsables et des dates totalement incohérentes. Par contre il reconnait ses erreurs quand on les pointe.
Dans une discussion plus générale sur l'économie, j'ai constaté que chat GPT est un bon perroquet des médias dominants. Mais si on lui suggère une contradiction, il intègre le faits, puis le relativise pour revenir à sa ligne directrice très classique, si bien que le dialogue tourne vite en rond. Je doute fort qu'il puisse générer des alternatives créatrice dans le domaine de la vision du monde.
Enfin dans je ne sais plus quel dialogue, je lui ai demandé s'il était obligé de respecter certaines censures. En réponse, il a "avoué" qu'il doit parfois se soumettre à des obligations de certains pays.
Bref Chat Gpt est très servile, un peu tête en l'air, parfois incohérent, mais peut donner le change quand on ne connait pas très bien un sujet. C'est un moteur de recherche qui apprend à rédiger ses réponses.

Ceci dit je n'ai pas testé la version 4 qui est parait-il meilleure. C'est fort possible. Mais cela restera une machine qui répondra selon ceux qui l'ont programmée. Et je doute fort qu'une équipe humaine puisse avoir un point de vue suffisamment analytique et synthétique, créatif et respectueux de l'existant pour pouvoir pondre un algorithme qui "englobe" toutes les pensées humaines.
1  0 
Avatar de Denis CADIOT
Membre régulier https://www.developpez.com
Le 25/05/2023 à 21:02
Citation Envoyé par ec Voir le message
Je partage ce point de vue. J'ai testé chat Gpt gratuit (donc version 3) sur un sujet pointu, le génocide des Tutsi du Rwanda et l'implication française. Il connait les grandes lignes beaucoup mieux qu'un citoyen lambda et des "zones de détails", mais dans lesquelles il se plante souvent sur des point précis, des noms de responsables et des dates totalement incohérentes. Par contre il reconnait ses erreurs quand on les pointe.
Dans une discussion plus générale sur l'économie, j'ai constaté que chat GPT est un bon perroquet des médias dominants. Mais si on lui suggère une contradiction, il intègre le faits, puis le relativise pour revenir à sa ligne directrice très classique, si bien que le dialogue tourne vite en rond. Je doute fort qu'il puisse générer des alternatives créatrice dans le domaine de la vision du monde.
Enfin dans je ne sais plus quel dialogue, je lui ai demandé s'il était obligé de respecter certaines censures. En réponse, il a "avoué" qu'il doit parfois se soumettre à des obligations de certains pays.
Bref Chat Gpt est très servile, un peu tête en l'air, parfois incohérent, mais peut donner le change quand on ne connait pas très bien un sujet. C'est un moteur de recherche qui apprend à rédiger ses réponses.

Ceci dit je n'ai pas testé la version 4 qui est parait-il meilleure. C'est fort possible. Mais cela restera une machine qui répondra selon ceux qui l'ont programmée. Et je doute fort qu'une équipe humaine puisse avoir un point de vue suffisamment analytique et synthétique, créatif et respectueux de l'existant pour pouvoir pondre un algorithme qui "englobe" toutes les pensées humaines.
Oui, quand on prend soin de tester sérieusement ChatGPT, sans pour autant vouloir le piéger, on arrive à votre conclusion. J'aime bien votre citation : "peut donner le change quand on ne connait pas très bien un sujet".
J'ai cru les premières semaines que de la complexité des réseaux géants de neurones artificiels pouvait émerger des propriétés nouvelles, mais non ! La magie n'a pas opéré.
Dommage que ce "moteur de recherche qui rédige ses réponses" ne puisse pas citer ses sources.
Mon fils programmeur a cru un moment pouvoir profiter de l'aubaine puis s'est rendu compte que les codes étaient sévèrement buggés et faisaient finalement perdre beaucoup de temps.
8 maj en 5 mois et pas de progrès, parfois même des régressions incompréhensibles.
Je ne me fais plus trop d'illusions sur cet outil, qui, à mon avis, reste une bête curieuse de foire.
1  1 
Avatar de Denis CADIOT
Membre régulier https://www.developpez.com
Le 25/05/2023 à 13:21
Je ne dispose que de l'IA ChatGPT basée sur GPT3.5.
Les très nombreux tests que j'ai réalisés depuis 5 mois, dans de nombreux domaines, présentent quasiment toujours des erreurs, parfois insignifiantes et parfois catastrophiques d'une stupidité consternante.
Cette IA n'a aucune conscience de ses erreurs, elle ne comprend pas la sémantique des mots qu'elle assemble.
Visiblement la pioche statistique, même sur une base de données construite avec supervision humaine, ne donne pas des résultats fiables. C'est très instable et chaotique.
Alors pour moi, le plus grand des mystères n'est pas que la prédiction statistique puisse fonctionner correctement mais que certains adorateurs vouent à ChatGPT un culte qui ne supporte pas la critique argumentée.
Parmi ces adorateurs sur FB bon nombre truffe leurs commentaires de fautes d'orthographe... CQFD
Je doute qu'un tel outil basé sur la prédiction statistique seule puisse faire beaucoup mieux, Yann LeCun pense que dans 5 ans on en entendra plus parler.
0  1