IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le PDG de Nvidia, Jensen Huang, a déclaré que l'industrie pourrait atteindre une forme d'AGI d'ici à cinq ans,
Mais précise que ce calendrier dépend de la définition que l'on donne à la technologie

Le , par Mathis Lucas

15PARTAGES

6  0 
Le PDG de Nvidia, Jensen Huang, a évoqué une nouvelle fois l'intelligence artificielle générale (AGI) en marge de l'événement GTC de l'entreprise qui a lieu cette semaine. Il a déclaré que l'industrie pourrait atteindre une forme d'AGI d'ici les cinq prochaines années. Mais il a nuancé ses propos en ajoutant que l'atteinte d'une forme d'AGI dépendra de la définition que l'industrie donne à la technologie. Cela suggère que la définition de l'AGI peut ne pas faire l'unanimité et peut changer au fur et à mesure que la technologie se développe. Jensen Huang est également convaincu que l'industrie peut venir facilement à bout des problèmes d'hallucination de l'IA.

L'intelligence artificielle générale (AGI) est une forme hypothétique d'IA dans laquelle "une machine peut apprendre et penser comme un humain". Pour que cela soit possible, l'AGI devrait avoir une conscience de soi et de son environnement afin de pouvoir résoudre des problèmes, s'adapter à son environnement et effectuer un plus large éventail de tâche. L'on s'attend à ce que l'AGI puisse révolutionner les industries, relever des défis mondiaux complexes et remodeler notre façon de travailler et de vivre. Et la question qui revient le plus souvent est : « quand atteindrons-nous une forme d'intelligence artificielle générale ? »

S'adressant à la presse cette semaine lors de l'événement annuel Nvidia GTC (GPU Technology Conference), le PDG Jensen Huang a été confronté une nouvelle fois à cette question. Il a semblé se lasser de discuter de ce sujet, car, selon lui, il est souvent mal cité. Huang a toutefois répondu à la question en déclarant dans un premier temps que prédire l'arrivée d'une AGI dépend de la définition que l'on donne à la technologie. L'industrie tente depuis plusieurs années de proposer une définition formelle et complète de l’intelligence, de l’IA et de l’AGI, mais à ce jour aucune des propositions n’est sans problèmes ou controverses.


Pour illustrer son point de vue, Huang établit quelques parallèles avec des situations de la vie : « même en tenant compte des complications liées aux fuseaux horaires, vous savez le moment où arrive le Nouvel An et le moment où arrive l'année 2025. Si vous vous rendez en voiture au San Jose Convention Center (où se tient cette année la conférence GTC), vous savez généralement que vous êtes arrivé lorsque vous voyez les énormes bannières de la GTC. Donc, l'essentiel est que nous puissions nous mettre d'accord sur la manière de mesurer que vous êtes arrivé, sur le plan temporel ou géospatial là où vous espériez aller ».

L'homme d'affaires ajouté également : « si nous spécifions que l'AGI est quelque chose de très précis, un ensemble de tests qu'un logiciel peut réussir très bien (ou peut-être 8 % de mieux que la plupart des gens), je pense que nous y arriverons d'ici cinq ans ». Il suggère que les tests pourraient être un examen du barreau, des tests de logique, des tests économiques ou peut-être la capacité à réussir un examen de médecine. À moins que l'auteur de la question ne soit en mesure de préciser la signification de l'AGI dans le contexte de la question, l'homme d'affaires affirme qu'il n'est pas en mesure de faire une prédiction.

La réponse du PDG de Nvidia à la question relative à l'arrivée de l'AGI contraste avec celle de certains acteurs de l'industrie. Les plus enthousiastes parmi eux affirment même que nous sommes déjà en présence d'une forme d'AGI. La position de Huang se rapproche toutefois de celle d'autres acteurs. Par exemple, le PDG d'OpenAI, Sam Altman, a déclaré l'année dernière que le monde aurait considéré ChatGPT comme une AGI si l'outil d'IA lui avait été présenté dix ans auparavant. Selon lui, les gens ont du mal à considérer ChatGPT comme une AGI en raison de l'absence d'un consensus sur la définition de l'intelligence.

Altman a laissé entendre que ChatGPT est victime de l'effet IA. L'effet IA est dû au fait que la communauté de l'IA (experts, chercheurs, etc.) a tendance à ajuster ses attentes en matière d'IA à mesure que la technologie progresse et que certaines tâches deviennent courantes. « Aujourd'hui, les gens se disent qu'il s'agit d'un gentil petit chatbot ou autre », a déclaré Altman. Il regrette le fait que les gens banalisent le potentiel de sa technologie en le réduisant à un simple agent conversationnel. En novembre, Google DeepMind a décidé de classer ChatGPT d'OpenAI et Bard de Google comme étant des formes d'AGI émergentes.

« Nous ne pourrons jamais dire ce qu'est réellement l'AGI si nous continuons à repousser les limites. La technologie peut toujours être améliorée. Qu'est-ce que nous devrions collectivement reconnaître comme étant une AGI, un comportement ou une sensibilité de niveau humain ? Ou bien des connaissances générales sur un large éventail de sujets ? », note un critique. L'effet IA est perceptible tout au long de l'histoire de l'IA. À titre d'exemple, lorsque le programme de jeu d'échecs Deep Blue a vaincu le grand maître des échecs Garry Kasparov en 1997, cette victoire a été saluée comme une réalisation importante de l'IA.

Mais depuis cette victoire, les programmes d'IA jouant aux échecs sont maintenant communément considérés comme des algorithmes conventionnels plutôt que comme une IA révolutionnaire. Certains experts en IA ont fini par résumé l'effet IA en ces termes : « l'IA est tout ce qui n'a pas encore été fait ». L'effet IA montre à quel point il est difficile de définir l'intelligence et comment le terme est utilisé différemment selon les contextes, comme le comportement ou la cognition. Altman ajoute toutefois : « je pense que c'est une bonne chose que les règles du jeu changent constamment. Cela nous pousse à travailler plus dur ».

Par ailleurs, lors de l'interview mardi, Huang a également abordé la question des hallucinations des modèles d'IA actuels. Pour rappel, l'hallucination fait référence à la tendance des modèles d'IA à inventer des réponses qui semblent plausibles, mais qui ne sont pas fondées sur des faits. Huang a semblé visiblement frustré par la question, mais a suggéré que les hallucinations pouvaient être résolues facilement, en veillant à ce que les réponses soient bien documentées. « Ajoutez une règle. Pour chaque réponse, vous devez vérifier la réponse », dit-il. Il appelle cette pratique la "génération augmentée par la recherche d'information".

Telle que décrite par Huang, la génération augmentée par la recherche d'information (retrieval augmented generation - RAG) est une approche très similaire à l'éducation aux médias de base : examiner la source et le contexte. Comparez les faits contenus dans la source à des vérités connues, et si la réponse est inexacte - même partiellement - écartez toute la source et passez à la suivante. « L'IA ne doit pas se contenter de répondre ; elle doit d'abord faire des recherches pour déterminer quelles sont les meilleures réponses », a déclaré Huang.

Pour les réponses critiques, telles que les conseils de santé ou autres, le PDG de Nvidia suggère de vérifier plusieurs ressources et sources de vérité connues. Bien entendu, cela signifie que le logiciel d'IA qui crée une réponse à une question doit avoir la possibilité de dire "Je ne connais pas la réponse à votre question" ou "Je n'arrive pas à trouver un consensus sur la bonne réponse à cette question".

Source : Jensen Huang, PDG de Nvidia

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des déclarations du PDG de Nvidia sur l'arrivée de l'AGI ?
Partagez-vous son avis ? Pensez-vous que nous atteindrons une forme d'AGI d'ici à 5 ans ?
Selon vous, pourquoi l'industrie est divisée sur la définition de l'intelligence artificielle générale ?

Voir aussi

Le PDG de Nvidia, Jensen Huang, affirme qu'une percée de l'IA appelée AGI aura lieu d'ici cinq ans, avec des machines "assez compétitives" par rapport à l'homme dans tous les domaines

« L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique qui affirme que ce mensonge est raconté pour des raisons financières et politiques

Google DeepMind vient de publier une liste de niveaux d'AGI et définir des niveaux de performance, elle suggère des principes tels que se focaliser sur les capacités plutôt que sur les mécanismes

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 12/04/2024 à 0:22
Le domaine de l'intelligence artificielle s'est creusé sur l'idée de faire des agents artificiels spécialisés variés et de les mettre ensemble pour faire un agent composite général. Cela n'a rien de loufoque à première vue, car c'est comme on fait des fonctions très spécialisées, qu'on combine ensuite pour faire des fonctions de plus haut niveau qui font des choses plus complexes.

Là où le bas blesse, c'est que même aujourd'hui, personne n'a créé la moindre fonction capable de faire tout et n'importe quoi. Et dans les faits, plus on monte en capacités diverses et variées, plus il faut introduire de "management". C'est le principe de "découper" la grosse brique monolithique en petits bouts (micro services) gérés de manière standardisée pour qu'on arrive à s'y retrouver (merci les ops). En bref, tout comme la fonction unique pouvant tout faire, l'IA générale comme combinaison d'IA spécifiques est un doux rêve théorique infaisable en pratique.

L'IA générale, qualifiée comme telle justement pour contrer cet aspect spécialisé, n'est cela dit pas un concept nouveau : il s'agit à la base d'une niche dans le domaine de l'IA, où on cherche justement à construire un agent non spécialisé. Par exemple l'intelligence pourrait être modélisée comme une capacité à maximiser les futurs possibles, quels qu'ils soient.

Ce qui se fait majoritairement dans le domaine de l'IA, à savoir de la performance spécialisée, c'est ce qu'on appelle de l'expertise (artificielle). Et je suis content de voir qu'on commence à s'en rendre compte avec des modèles comme Mixtral qui introduisent des concepts de "mixture of experts". Dans le temps on avait aussi ce qu'on appelait des systèmes experts (ça se fait encore mais ça n'est pas la tendance), mais le principe est d'incorporer dans la machine les connaissances d'un ou plusieurs experts, experts qu'on a cherché à mettre au placard avec les systèmes à apprentissage.

Aujourd'hui, le terme d'IA générale est sur le devant de la scène pour de mauvaises raisons : tout comme on fait l'amalgame entre intelligence et expertise depuis longtemps, on fait désormais l'amalgame entre IA générative et générale. Certes les systèmes actuels donnent l'impression de capacités générales, mais on voit vite que ce n'est pas le cas quand on joue un peu avec. Passé l'effet "wow !", on se rend vite compte qu'on a un générateur de texte sans cervelle : s'il a été entraîné sur les bonnes données, il régurgite ce qu'il a vu ailleurs (ce n'est pas pour rien que les procès liés à la propriété intellectuelle explosent), sinon il régurgite quelque chose en lien avec ce qu'on demande mais qui ressemble à ce qu'il a vu, quitte à générer des énormités. Énormités pour lesquelles il n'aura aucun mal à admettre ses erreurs (réponse cohérente dans un texte faisant état d'une erreur), mais sans pour autant les corriger si on recommence (réponse cohérente aussi : même garbage in, même garbage out).

Pour résumer, je suis d'accord que parler d'IA générale sur les technos d'aujourd'hui est un mensonge, mais au même titre que parler d'intelligence tout court l'est aussi depuis le début. Passé la frustration de la définition, c'est à prendre comme un buzzword marketing, et ça c'est la peine usuelle depuis que la publicité existe : faire passer des vessies pour des lanternes. C'est pourquoi on a les retours inverses que finalement on s'en fiche du terme employé, tant que ça sert (comprendre "tant que c'est bon pour le business"). La seule solution pérenne à ma connaissance est de développer son esprit critique pour ne pas tomber dans le panneau.
4  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 09/04/2024 à 10:32
Citation Envoyé par Patrick Ruiz Voir le message
Et vous ?

Quelle analyse faites-vous du positionnement de Dana Blankenhorn sur l'AGI ?
Je pense que son analyse est bonne. L'AI actuelle n'est qu'une supercherie médiatique pour vendre un produit. Produit que l'on a déjà sous une forme peu abordable pour le grand public. Mais, le "I" de IA, dans ce cas, n'a pas grand chose avec "Intelligence".
Citation Envoyé par Patrick Ruiz Voir le message
Partagez-vous l’avis selon lequel l’IA bénéficie de plus de battage médiatique qu’elle n’a de réelle substance ?
Tout à fait. Ça permet à des entreprises, comme OpenAI d'obtenir des financements sur du vent. C'est un phénomène connu, et généralement, ça fait pshiiit tôt ou tard, entrainant des pertes colossales (que le système fera payer aux plus pauvres, donc pas d'inquiétude)
Citation Envoyé par Patrick Ruiz Voir le message
ChatGPT et les autres célèbres modèles d’IA sont-ils à la hauteur de leur succès ou cela est-il simplement dû à la surmédiatisation ?
Bien sûr que c'est dû à la surmédiatisation. Le reste n'a que peu d'intérêt.
Citation Envoyé par Patrick Ruiz Voir le message
Que pensez-vous de l'AGI ? Sera-t-elle un jour une réalité ou restera-t-elle insaisissable pour toujours ?
Ça, je n'en sait rien. Mais je ne pense pas que je le connaitrai, et c'est tant mieux. Car, quoi qu'il arrive, ce sera toujours le pire que les hommes choisiront.
3  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 12/04/2024 à 8:06
Citation Envoyé par Matthieu Vergne Voir le message
Là où le bas blesse
Juste pour rappeler que l'expression c'est : Là où le bât blesse.
Ça vient du temps où l'on chargeait les ânes ou les mulets ou les mules. Le chargement de ces pauvres bêtes est le bât. Et, parfois, l'animal refusait d'avancer car il était blessé par le chargement. Il fallait alors chercher l'origine du problème. D'où l'expression : C'est là que le bât blesse.
4  1 
Avatar de totozor
Membre expert https://www.developpez.com
Le 15/04/2024 à 8:18
Citation Envoyé par Denis CADIOT Voir le message
La version ChatGPT-4 sous Copilot Android est gratuite, et franchement au niveau "intelligence" 3.5 ou 4 c'est pareil.
Copilot est arrivé au travail.
Certains collègues le teste et son assez convaincus, il résume assez bien les réunion.
Mais le "assez" signifie aussi qu'il confond parfois action avec problème ou inverse le raisonnement présenté.

Ce qui m'inquiète dans cette histoire est qu'on était tous d'accord pour tester.
On demandé à Copilot de faire un compte rendu de la réunion, que l'on pouvait corriger avant officialisation.
Nous sommes deux à avoir demandé plusieurs corrections (notamment quand Copilot transforme le message de quelqu'un).
Le compte rendu a été envoyé en ignorant nos demandes estimant que le compte rendu était "suffisamment bon" alors que les comptes rendus rédigés par quelqu'un peuvent être revus.

Ces comptes rendus sont les rares qui sont relus a posteriori, donc on "grave dans le marbre" des raisonnements d'une personnes qu'il n'a pas eu et qui le décrédibiliseront peut être plus tard.
La phase de test est clairement biaisée puise que les failles ne remontent pas. Je suppose que dans quelques mois nous aurons une news nous annonçant qu'on va gagner des heures de travail parce que notre nouvel assistant infaillible fait le travail plus vite et mieux que tout le monde...
3  0 
Avatar de alcsi
Membre du Club https://www.developpez.com
Le 15/04/2024 à 13:26
L'ami Musk raconte n'importe quoi comme d'habitude, mais je pense pas que ce soit totalement innocent.

Par exemple, c'est une excellente occasion pour lui de continuer à parler de Neuralink et à planter dans l'opinion publique l'idée que Neuralink puisse faire partie de notre futur.
Mine de rien, tu convainc pas une population humaine de se connecter à une machine du jour au lendemain, donc il est dans un travail de long terme (j'allais dire, "un travail de sape" ?!), tant face au "consommateur final" que face au législateur.

Rien n'est plus important pour lui que le succès commercial de ses produits : il est pas présent sur l'IA ?
Qu'à cela ne tienne, il l'utilise pour sa propre pub.
3  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 09/04/2024 à 16:02
les emplois qui sont remplaçable par des ia ont déjà été remplacé depuis longtemps par la délocalisation des indiens/chinois/africains...etc.
a mon avis ce sont surtout eux qui vont morfler.

nos camionneurs par exemple ont déja été remplacé par les "IA" polonais il y'a 20ans, et les camionneurs Polonais se font désormais remplacer par les ia "Ukrainiens", qui eux meme dans 20ans se feront susurrement remplacer par des Géorgiens ou Azerbajanais.
ce mécanisme ont le retrouve partous, dans la tech notamment, cela fait longtemps que un maximum de chose a été remplacé par des IA Indiens payé une misère et bossant 50hj/semaines. Remplacer un indien par un bot ca changera pas grand chose pour le français au chômage.

Il est prévu que si l'otan gagne contre la russie, tous les patrons ont signé pour construire des usines et exploité au maximum la misère de ce pays (salaire ukrainien encore plus faible que le russe).
Officiellement c'est bien car c'est pour investir et aider le pays a se reconstruire
Un ukrainien niveau salaire bas les chinois ou les bangladeshi, nos futur vetements et chaussures et voitures viendront surement d’Ukraine si l'otan gagne, au lieu de la Slovaquie ou de la Roumanie, ca changera pas grand chose encore une fois pour un francais.

Pour le coup l'ia est une chance pour les pays riches, ca va réduire de beaucoup la délocalisation, il est préférable d'avoir une usine full ia en France avec à peine 10 salariés qu'une usine en chine avec 500 salariés.
2  0 
Avatar de Aspartame
Membre confirmé https://www.developpez.com
Le 09/04/2024 à 19:12
Elon Musk, grand medium Xtralucide
2  0 
Avatar de _toma_
Membre averti https://www.developpez.com
Le 10/04/2024 à 23:27
la vie des chinois ne m’intéresse pas [...] si la france pouvait retrouver son leadership quitte à faire vivre la misère a des millions d'humains dans d'autres pays, alors il faut le faire.
Les puissances étrangère ne se privent pas de nous faire des coup de pute donc aucune gêne à avoir en retour

Idéalement nouer des partenariats gagnant gagnant et bâtir des relations de confiance sur le long terme
Je sais que c'est facile pour personne d'être cohérent dans ses idées ou convictions. Mais quand même, un petit effort ;-).
2  0 
Avatar de Aiigl59
Membre actif https://www.developpez.com
Le 11/04/2024 à 23:54
Je ne savais pas qu'en plus d'être con Elon était prophète...
3  1 
Avatar de Artemus24
Expert éminent sénior https://www.developpez.com
Le 12/04/2024 à 9:55
La perspective de l’atteinte d’une intelligence artificielle trouve en sus écho dans certains cercles académiques. « L'idée que l'IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c'était une erreur. Et je pensais personnellement que c'était loin d'être le cas. Je me disais qu'il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus », prévient Geoffrey Hinton – l’un des pionniers de l’apprentissage profond.
De quelle intelligence parle-t-on ?
Voici les types d’intelligence de Gardner :
--> L’intelligence verbo-linguistique
--> L’intelligence logico-mathématique
--> L’intelligence visuelle-spatiale
--> L’intelligence intra-personnelle
--> L’intelligence inter-personnelle
--> L'intelligence corporelle-kinesthésique
--> L’intelligence musicale-rythmique
--> L’intelligence naturaliste-écologiste
--> L'intelligence existentielle (ou spirituelle)

Il y a des chimpanzés qui ont une mémoire visuelle largement supérieur à celle de l'homme. Je ne crois pas un seul instant que le chimpanzé va mettre en danger l'avenir de l'humanité à cause de cette exceptionnelle capacité mémorielle.

Un autre critique a écrit : « il s'agit donc de l'argument standard : "il n'y a pas d'intelligence, ce n'est que de l'autocomplétion". La réponse à cela est "qui s'en soucie ?". Si le système est capable d'augmenter la productivité, de nous aider à résoudre des problèmes qui étaient auparavant insolubles (le repliement des protéines) et de remplacer des emplois, alors on se moque de savoir s'il est réellement intelligent ».
Il n'y a pas d'intelligence dans un automate. Celui-ci ne fait que reproduire ce pourquoi il a été conçu. C'est exactement le cas des voitures sans conducteur.
Donc oui, c'est une supercherie coutumière de nous faire prendre les vessies pour des lanternes et tout ça, dans l'intérêt financier de quelques uns.
Mais si l'on veut être prophète, le danger est social car il va déstabiliser nos sociétés et créer de grave problème dans l'avenir.
Que va-t-on faire de ces gens qui ne sont plus aptes à travailler puisque l'IA fera mieux qu'eux ?
2  0