IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le PDG de Nvidia, Jensen Huang, a déclaré que l'industrie pourrait atteindre une forme d'AGI d'ici à cinq ans,
Mais précise que ce calendrier dépend de la définition que l'on donne à la technologie

Le , par Mathis Lucas

23PARTAGES

6  0 
Le PDG de Nvidia, Jensen Huang, a évoqué une nouvelle fois l'intelligence artificielle générale (AGI) en marge de l'événement GTC de l'entreprise qui a lieu cette semaine. Il a déclaré que l'industrie pourrait atteindre une forme d'AGI d'ici les cinq prochaines années. Mais il a nuancé ses propos en ajoutant que l'atteinte d'une forme d'AGI dépendra de la définition que l'industrie donne à la technologie. Cela suggère que la définition de l'AGI peut ne pas faire l'unanimité et peut changer au fur et à mesure que la technologie se développe. Jensen Huang est également convaincu que l'industrie peut venir facilement à bout des problèmes d'hallucination de l'IA.

L'intelligence artificielle générale (AGI) est une forme hypothétique d'IA dans laquelle "une machine peut apprendre et penser comme un humain". Pour que cela soit possible, l'AGI devrait avoir une conscience de soi et de son environnement afin de pouvoir résoudre des problèmes, s'adapter à son environnement et effectuer un plus large éventail de tâche. L'on s'attend à ce que l'AGI puisse révolutionner les industries, relever des défis mondiaux complexes et remodeler notre façon de travailler et de vivre. Et la question qui revient le plus souvent est : « quand atteindrons-nous une forme d'intelligence artificielle générale ? »

S'adressant à la presse cette semaine lors de l'événement annuel Nvidia GTC (GPU Technology Conference), le PDG Jensen Huang a été confronté une nouvelle fois à cette question. Il a semblé se lasser de discuter de ce sujet, car, selon lui, il est souvent mal cité. Huang a toutefois répondu à la question en déclarant dans un premier temps que prédire l'arrivée d'une AGI dépend de la définition que l'on donne à la technologie. L'industrie tente depuis plusieurs années de proposer une définition formelle et complète de l’intelligence, de l’IA et de l’AGI, mais à ce jour aucune des propositions n’est sans problèmes ou controverses.


Pour illustrer son point de vue, Huang établit quelques parallèles avec des situations de la vie : « même en tenant compte des complications liées aux fuseaux horaires, vous savez le moment où arrive le Nouvel An et le moment où arrive l'année 2025. Si vous vous rendez en voiture au San Jose Convention Center (où se tient cette année la conférence GTC), vous savez généralement que vous êtes arrivé lorsque vous voyez les énormes bannières de la GTC. Donc, l'essentiel est que nous puissions nous mettre d'accord sur la manière de mesurer que vous êtes arrivé, sur le plan temporel ou géospatial là où vous espériez aller ».

L'homme d'affaires ajouté également : « si nous spécifions que l'AGI est quelque chose de très précis, un ensemble de tests qu'un logiciel peut réussir très bien (ou peut-être 8 % de mieux que la plupart des gens), je pense que nous y arriverons d'ici cinq ans ». Il suggère que les tests pourraient être un examen du barreau, des tests de logique, des tests économiques ou peut-être la capacité à réussir un examen de médecine. À moins que l'auteur de la question ne soit en mesure de préciser la signification de l'AGI dans le contexte de la question, l'homme d'affaires affirme qu'il n'est pas en mesure de faire une prédiction.

La réponse du PDG de Nvidia à la question relative à l'arrivée de l'AGI contraste avec celle de certains acteurs de l'industrie. Les plus enthousiastes parmi eux affirment même que nous sommes déjà en présence d'une forme d'AGI. La position de Huang se rapproche toutefois de celle d'autres acteurs. Par exemple, le PDG d'OpenAI, Sam Altman, a déclaré l'année dernière que le monde aurait considéré ChatGPT comme une AGI si l'outil d'IA lui avait été présenté dix ans auparavant. Selon lui, les gens ont du mal à considérer ChatGPT comme une AGI en raison de l'absence d'un consensus sur la définition de l'intelligence.

Altman a laissé entendre que ChatGPT est victime de l'effet IA. L'effet IA est dû au fait que la communauté de l'IA (experts, chercheurs, etc.) a tendance à ajuster ses attentes en matière d'IA à mesure que la technologie progresse et que certaines tâches deviennent courantes. « Aujourd'hui, les gens se disent qu'il s'agit d'un gentil petit chatbot ou autre », a déclaré Altman. Il regrette le fait que les gens banalisent le potentiel de sa technologie en le réduisant à un simple agent conversationnel. En novembre, Google DeepMind a décidé de classer ChatGPT d'OpenAI et Bard de Google comme étant des formes d'AGI émergentes.

« Nous ne pourrons jamais dire ce qu'est réellement l'AGI si nous continuons à repousser les limites. La technologie peut toujours être améliorée. Qu'est-ce que nous devrions collectivement reconnaître comme étant une AGI, un comportement ou une sensibilité de niveau humain ? Ou bien des connaissances générales sur un large éventail de sujets ? », note un critique. L'effet IA est perceptible tout au long de l'histoire de l'IA. À titre d'exemple, lorsque le programme de jeu d'échecs Deep Blue a vaincu le grand maître des échecs Garry Kasparov en 1997, cette victoire a été saluée comme une réalisation importante de l'IA.

Mais depuis cette victoire, les programmes d'IA jouant aux échecs sont maintenant communément considérés comme des algorithmes conventionnels plutôt que comme une IA révolutionnaire. Certains experts en IA ont fini par résumé l'effet IA en ces termes : « l'IA est tout ce qui n'a pas encore été fait ». L'effet IA montre à quel point il est difficile de définir l'intelligence et comment le terme est utilisé différemment selon les contextes, comme le comportement ou la cognition. Altman ajoute toutefois : « je pense que c'est une bonne chose que les règles du jeu changent constamment. Cela nous pousse à travailler plus dur ».

Par ailleurs, lors de l'interview mardi, Huang a également abordé la question des hallucinations des modèles d'IA actuels. Pour rappel, l'hallucination fait référence à la tendance des modèles d'IA à inventer des réponses qui semblent plausibles, mais qui ne sont pas fondées sur des faits. Huang a semblé visiblement frustré par la question, mais a suggéré que les hallucinations pouvaient être résolues facilement, en veillant à ce que les réponses soient bien documentées. « Ajoutez une règle. Pour chaque réponse, vous devez vérifier la réponse », dit-il. Il appelle cette pratique la "génération augmentée par la recherche d'information".

Telle que décrite par Huang, la génération augmentée par la recherche d'information (retrieval augmented generation - RAG) est une approche très similaire à l'éducation aux médias de base : examiner la source et le contexte. Comparez les faits contenus dans la source à des vérités connues, et si la réponse est inexacte - même partiellement - écartez toute la source et passez à la suivante. « L'IA ne doit pas se contenter de répondre ; elle doit d'abord faire des recherches pour déterminer quelles sont les meilleures réponses », a déclaré Huang.

Pour les réponses critiques, telles que les conseils de santé ou autres, le PDG de Nvidia suggère de vérifier plusieurs ressources et sources de vérité connues. Bien entendu, cela signifie que le logiciel d'IA qui crée une réponse à une question doit avoir la possibilité de dire "Je ne connais pas la réponse à votre question" ou "Je n'arrive pas à trouver un consensus sur la bonne réponse à cette question".

Source : Jensen Huang, PDG de Nvidia

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des déclarations du PDG de Nvidia sur l'arrivée de l'AGI ?
Partagez-vous son avis ? Pensez-vous que nous atteindrons une forme d'AGI d'ici à 5 ans ?
Selon vous, pourquoi l'industrie est divisée sur la définition de l'intelligence artificielle générale ?

Voir aussi

Le PDG de Nvidia, Jensen Huang, affirme qu'une percée de l'IA appelée AGI aura lieu d'ici cinq ans, avec des machines "assez compétitives" par rapport à l'homme dans tous les domaines

« L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique qui affirme que ce mensonge est raconté pour des raisons financières et politiques

Google DeepMind vient de publier une liste de niveaux d'AGI et définir des niveaux de performance, elle suggère des principes tels que se focaliser sur les capacités plutôt que sur les mécanismes

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 22/07/2024 à 16:33
Les enfants devraient-ils encore apprendre à coder à l'ère de l'IA ?
La question devrait-être : Devrait-on encore penser par nous même à l'ère de l'IA ?
Bon, déjà qu'une bonne partie ne font que reprendre la pensée de pseudo journalistes (qui sont plus des épandeurs d'idées pré-machées)
13  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 03/05/2024 à 3:59
C'est fou ce qui se passe en se moment. Il y a certainement quelque chose qui se trame dernière tous ça. Faire dépenser l'argent des autres, cela semble le jeu du moment. Mais qui sont les investisseurs derrière tout ceci ? Qui a les moyens d'investir de la sorte ?

Le monde s'éloigne de plus en plus de la réalité. Tous les pays sont endettés jusqu'au cou, mais qui "doit" combien et à "qui", je ne trouve pas l'info. L'économie mondial ressemble de plus en plus à un montage style système de Ponzi. Le capitalisme semble s'emballer dangereusement. Il n'est basé que sur la confiance. Si cette dernière s'écroule, c'est tout qui s'écroule. Et j'ai bien peur que cela finisse par arriver. Perso, je pense que le problème n'est pas de savoir "Si" ça va arriver, mais "Quand" cela va arriver.

Quand tout n'est plus basé que sur de la spéculation, et pas sur du concret, c'est inévitable.

Mais pour rester plus "terre à terre", quelles sont les compétences de ce Monsieur Altman ? Quel crédit donner à ses propos ? Connaît il seulement de quoi il parle ? De ce que j'ai compris, c'est juste un (très bon) vendeur. Mais même le meilleur des vendeurs ne peut pas vendre éternellement ce qui n'existe pas. Il faut avoir un sacré culot (et ego), pour se permettre de dire ce qu'il raconte. ChatGPT 4, c'est moins que rien dit-il, mais ChatGPT 5 ça sera de la balle, mais ce ne sera rien par rapport à ChatGPT 6. On peut aller loin comme ça. Je suis certains que ChatGPT 9672 se meilleur que ChatGPT 9671. Mais est-ce ça sera une AGI ? J'ai bien peur que non. Il faut être fou pour croire un seul instant que cela ne se terminera pas (très) mal.

De quoi parle-t-on ? Qui sait ne fusse que définir ce qu'est sensé être une AGI ? J'en suis incapable, mais si quelqu'un ici peut m'expliquer, je suis preneur. Mais bon, je me lance, avec mes faibles connaissance de petit humain que je suis. Si on veut accorder rien qu'un peu de crédibilité à la chose, il faut admettre qu'une AGI serait capable d'évoluer au moins au niveau d'un être humain. Quand on voit ce que l'humanité a fait, "l'AGI" ne pourra pas faire "mieux", ni "pire". Elle est juste bombardée d'informations existantes (vrai ou fausse), et tente de triturer ces "informations" pour donner réponde à une question. Je ne vois rien ressemblant à "l'intelligence humaine" (qu'on a déjà du mal a définir). L'AGI ne "pensera pas". Et Qu'est-ce que la pensée au fait ? Comment une "idée" vient-elle titiller notre "esprit" ? Pourquoi certains génies comme Einstein ont-ils "pensé" et "développé" leurs "idées/pensée" ?

Et puis, je pense que tout le monde sera d'accord pour dire que tous les "cerveaux" humains ne se valent pas. Le mien n'atteint pas la cheville, que dis-je, le bout de l'orteil, de celui des grands chercheurs des siècles passés. S'il n'y a pas deux cerveaux les même en ce bas monde, comment croire qu'une "AGI" serait "unique", "omnisciente", et capable d'avoir réponse à toute question ? Répondre correctement à des questions dont l'humanité a déjà la réponse, je ne vois pas où est le progrès ?

Le propre de l'homme, c'est son "esprit" de découverte, d'exploration, d'expérimentation, de conclusion. Et même dans ce cas, il faut admettre que l'homme ne progresse que par "tâtonnement", une "théorie" ne restant correcte et établie que jusqu'à preuve du contraire.

Si vous avez lu toute ma petite prose, il n'y a pas énormément de possibilités de conclure. Soit tous ces "devins" sont des Einsteins en culotte courte, ou des arnaqueurs "en col blanc".

Je me suis fais mon idée, chacun étant libre de choisir la sienne.

BàV et "Peace & Love"
11  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 25/09/2024 à 7:35
Citation Envoyé par Jade Emy Voir le message
Pensez-vous que ces déclarations sont crédibles ou pertinentes ?
Bien sur, nous savons tous que le climat c'est comme une voiture, quand il est cassé on le répare, avec des tournevis et du WD40.
Bien sur, nous savons tous, surtout depuis la physique quantique, que la physique est un domaine fini que nous mettons du temps à découvrir parce que nous sommes médiocres.
Quel est votre avis sur le sujet ?
Sam Altman est un clown qui ne sait pas de quoi il parle.
Mais il le dit surement mieux que moi parce qu'il lève des millions d'euros avec ce genre d'intervention.
Sam Altman prévoit que l'IA sera une ressource qui fera l'objet de guerres et deviendra principalement un outil pour les riches.[...]
Bref la même chose qu'aujourd'hui mais en pire
[...]Mais Sam Altman affirme que des triomphes stupéfiants, comme réparer le climat, établir une colonie spatiale et découvrir toute la physique, finiront par devenir monnaie courante avec l'AGI
Ah beh tout va bien alors...
Ceci dit non seulement on va réparer le climat et découvrir la physique mais en plus se sera monnaie courante...
11  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 03/05/2024 à 0:45
10  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 24/07/2024 à 9:34
Citation Envoyé par calvaire Voir le message
Sans t'en rendre compte avec ton commentaire, on a déjà dépassé ce cap et en a peine 1 siècle, tu prends 1 citadin, il sera incapable de survivre si tu le balance dans la nature.
Les 1er écris retrouvé dans l'histoire de l'humanité était des livres comptables pour les céréales. la plupart des occidentaux ne savent plus chasser ou cultiver des céréales, donc la prochaine étape serait de plus savoir écrire
ça en arrangerait plus d'un qu'on laisse tomber les bouquins et qu'on demande à CHATGPT pour qui voter

De la même manière que ça en arrangé plus d'un qu'on quitte les champs pour aller dans les usines.

Le problème avec le progrès c'est qu'il impose sa vision de l'histoire en nous faisant croire que ce qui a changé c'était pour notre bien, alors que c'est juste une subjugation de plus, une dépossession de quelque chose qui nous rendait indépendant pour nous rendre dépendant d'une énième chose artificielle. Chose artificielle qui est bien sûr la propriété de quelqun.

Si vous voyez ou je veux en venir. Le loup et le troupeau.
10  0 
Avatar de popo
Expert confirmé https://www.developpez.com
Le 25/09/2024 à 11:13
Mais Sam Altman affirme que des triomphes stupéfiants, comme réparer le climat, établir une colonie spatiale et découvrir toute la physique, finiront par devenir monnaie courante avec l'AGI
MDR, l'IA, dont l'entraînement et l'utilisation des modèles génèrent d'importantes émissions de CO2 et dont les centres de données nécessaires à son fonctionnement consomment d'importantes quantités d'eau pour le refroidissement, serait bon pour le climat !!!
9  0 
Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 27/05/2024 à 20:08
dans quelques années ils vont devoir reembocher massivement des dev pour combler tous les trou de securité de cette ia de merde
8  0 
Avatar de Artemus24
Expert éminent sénior https://www.developpez.com
Le 22/07/2024 à 16:53
le PDG de Nvidia, Jensen Huang, a déclaré que, même à ce stade précoce de la révolution de l'IA générative, la programmation n'est plus une compétence vitale.
Cela revient à dire que l'on sera dépendant de l'IA pour faire n'importe quoi. Et si l'IA tombe en panne, devra-t-on attendre qu'il s'auto répare ? Je crains que cela risque d'être long.

manque d'innovation : l'IA est incapable de faire preuve d'esprit critique et de générer de nouvelles idées ; elle ne peut que répéter des idées basées sur les données sur lesquelles elle a été formée. L'esprit critique et la résolution de problèmes sont des compétences de programmation importantes que l'IA ne peut pas reproduire ;
C'est le point le plus négatif de l'IA, à savoir qu'il est dans l'impossibilité de créer quoi que ce soit, à l'inverse de l'humain.
Inversement, sur ce qu'il sait, et en admettant que l'IA ne puisse pas commettre d'erreurs, il aura la capacité de faire mieux que l'humain.
Mais comment l'IA peut évoluer s'il en est totalement incapable ?
Le pire est que si l'humain n'est plus en capacité d'évoluer lui-même et se repose totalement sur l'IA pour le faire à sa place, c'est la mort de l'humanité.
C'est là le plus grand danger pour l'humanité, de considérer que l'IA est notre nouveau Dieu et lui seul pourvoira à tous nos besoin.
8  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 23/07/2024 à 8:12
Citation Envoyé par Artemus24 Voir le message
C'est là le plus grand danger pour l'humanité, de considérer que l'IA est notre nouveau Dieu et lui seul pourvoira à tous nos besoin.
Sans aller jusqu'à considérer l'IA comme une nouvelle divinité, le danger est effectivement de s'en remettre à l'IA dans des domaines tel que la recherche fondamentale, l'innovation, la créativité,...

On voit aujourd'hui les méfaits d'un système uniquement basé sur la rentabilité, par exemple, dans l'univers du cinéma. Il n'y a quasiment plus de nouveauté, de création pure.
Soit on décrit le quotidien (autant regarder le "journal" de BFM ) soit ce sont des suites de suites ou des préquelles de suites de remake !
On nous parle de nouvelles séries : Zorro

Je me souviens quand mon père m'avait emmener voir Star Wars en 77 au ciné ! On n'avait jamais vu ça. Pareil pour Alien dans les années 80. Aujourd'hui on en est où ? Ben, des séries Star Wars, avant de nouveaux films, et toujours Alien !
8  0 
Avatar de DrHelmut
Membre actif https://www.developpez.com
Le 23/07/2024 à 8:11
En sortie d'études, en France, je me souviens qu'on nous tenait déjà un discours sur l'inutilité prochaine de nos métiers en France, voués à être intégralement remplacés par de la sous-traitance en Inde ou ailleurs.
L'histoire aura largement donné tort à mes chers professeurs, et aujourd'hui encore, on voudrait nous ressortir les mêmes bêtises, mais avec encore moins d'arguments je trouve.
L'IA n'est en effet pas du tout autonome, limité dans sa "connaissance" au code qui a servi à son entrainement et dont elle ne comprend rien mais fait juste ressortir des patterns.
Le seul vrai risque de l'IA avec nos métiers, c'est quand elle nous entraînera dans sa chute quand la bulle explosera..
7  0