IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Sam Altman, PDG d'OpenAI, affirme que ChatGPT aurait pu être considéré comme une intelligence générale artificielle il y a 10 ans,
Il a laissé entendre que le chatbot est victime de l'effet IA

Le , par Mathis Lucas

9PARTAGES

2  0 
Sam Altman, PDG d'OpenAI, estime que ChatGPT contient les prémices d'une intelligence générale artificielle (artificial general intelligence - AGI). Il est persuadé que beaucoup de personnes auraient considéré ChatGPT comme une AGI si l'outil d'IA leur avait été présenté dix ans auparavant. ChatGPT serait victime de ce que l'on appelle "effet IA", ce qui pousse les gens à le considérer comme un simple agent conversationnel. Il ajoute aussi que les gens ont du mal à considérer ChatGPT comme une AGI en raison de l'absence d'un consensus sur la définition de l'intelligence. Pour lui, lorsque cela arrivera, ChatGPT répondra d'une manière d'une autre à cette définition.

« Aujourd'hui, les gens se disent qu'il s'agit d'un gentil petit chatbot ou autre », a déclaré Altman. L'entrepreneur regrette le fait que les gens banalisent le potentiel de sa technologie en le réduisant à un simple agent conversationnel. Il est convaincu que si l'on avait montré cette même technologie aux gens dix ans plutôt, ces derniers auraient été stupéfaits et auraient déclaré sans hésiter qu'il s'agit d'une AGI. Certains partagent l'avis d'Altman et prennent pour exemple la frénésie que ChatGPT a suscitée dès sa publication. « Les gens pensaient que c'était la dernière étape avant une AGI. Après la prise en main, ils ont changé d'avis », a écrit un critique.

Altman estime que ce comportement peut être expliqué par deux choses : l'effet IA et l'absence de consensus sur la définition de l'intelligence. Dans le domaine de l'IA, l'expression "effet IA" décrit un phénomène selon lequel une fois qu'une tâche ou une capacité est automatisée ou accomplie avec succès à l'aide de l'IA, elle n'est plus considérée comme faisant partie de la "véritable" IA. En d'autres termes, dès qu'un système d'IA devient compétent pour une tâche spécifique, les gens ont tendance à ne plus le considérer comme de l'IA et à le percevoir comme une simple opération de routine ou régulière. Ainsi, l'on pense que chaque succès de l'IA la redéfinit.


Selon la définition la plus populaire, l'AGI est une forme d'intelligence artificielle dans laquelle une machine peut apprendre et penser comme un humain. Pour que cela soit possible, l'AGI devrait avoir une conscience de soi et une conscience tout court, afin de pouvoir résoudre des problèmes, s'adapter à son environnement et effectuer un plus large éventail de tâches. Selon certains experts en IA, il est peu probable que les gens se rendent compte qu'ils interagissent avec une AGI. D'autres estiment que nous serons en présence d'une AGI lorsque la machine aura une cognition de niveau humain. En réalité, la notion même de l'AGI fait l'objet de polémiques.

« Nous ne pourrons jamais dire ce qu'est réellement l'AGI si nous continuons à repousser les limites. La technologie peut toujours être améliorée. Qu'est-ce que nous devrions collectivement reconnaître comme étant une AGI, un comportement ou une sensibilité de niveau humain ? Ou bien des connaissances générales sur un large éventail de sujets ? Je dirais que la plus grande mise en garde concernant l'AGI est de savoir si elle peut apprendre et transférer des connaissances par elle-même, ce qui semble être quelque chose que nous pouvons évaluer sans changer ce à quoi elle ressemble en fonction des progrès technologiques », a écrit un critique.

Cet effet est perceptible tout au long de l'histoire du développement de l'IA. Par exemple, lorsque le programme de jeu d'échecs Deep Blue a vaincu le grand maître des échecs Garry Kasparov en 1997, cette victoire a été saluée comme une réalisation importante de l'IA. Cependant, après cette victoire, les programmes d'IA jouant aux échecs sont désormais communément considérés comme des algorithmes conventionnels plutôt que comme une IA révolutionnaire. L'effet IA est dû au fait que la communauté (experts, etc.) a tendance à ajuster ses attentes en matière d'IA à mesure que la technologie progresse et que certaines tâches deviennent courantes.

Certains experts en IA ont fini par résumé l'effet IA en ces termes : « l'IA est tout ce qui n'a pas encore été fait ». L'effet IA montre à quel point il est difficile de définir l'intelligence et comment le terme est utilisé différemment selon les contextes, comme le comportement ou la cognition. Bien que le PDG d'OpenAI ait fait la remarque et qu'il aurait probablement préféré que les gens acceptent que ChatGPT est une AGI ou est tout au moins quelque chose qui s'en rapproche, il ne considère pas l'effet IA comme un problème. « Je pense que c'est une bonne chose que les règles du jeu changent constamment. Cela nous pousse à travailler plus dur », a-t-il déclaré.

Il a ajouté : « la technologie [ChatGPT] approche toutefois un stade qui est au moins assez proche de la compréhension de l'AGI par OpenAI pour qu'une définition soit adoptée au cours de la prochaine décennie, si ce n'est plus tôt ». Altman laisse entendre qu'OpenAI travaille sur sa propre définition de l'AGI et pourrait donc l'imposer à la communauté dans les années à venir. Pour rappel, lors de ces récentes sorties, Altman a déclaré que l'on atteindra l'AGI d'ici à une décennie. Ce qui correspond au calendrier qu'il fixe pour l'adoption d'une définition de l'AGI. Selon les critiques, OpenAI cherche en effet à être celui qui dicte les règles dans le domaine de l'IA.

À ce propos, certains rapports ont récemment fait état de tensions entre OpenAI et Microsoft, son principal investisseur. Les tensions seraient liées à des divergences de vues sur la sécurité de l'IA et au fait que les deux entreprises se battent pour les mêmes clients avec des produits similaires. Le partenariat entre OpenAI et Microsoft est ambigu, mais en commentant les rumeurs sur les tensions, Altman a déclaré que Microsoft et OpenAI ont un objectif commun et ne sont pas des ennemis : « oui, je ne prétendrai pas que c'est une relation parfaite, mais nous sommes loin de la catégorie des ennemis. C'est une très bonne relation. Nous avons aussi nos querelles ».

Altman a déclaré que les deux entreprises sont alignées sur l'objectif de faire en sorte que les modèles d'OpenAI soient utilisés autant que possible. Par ailleurs, le PDG d'OpenAI a abordé les problèmes liés aux données d'entraînement de l'IA, notamment le problème de droit d'auteur. Altman a déclaré qu'il est important d'élaborer de nouvelles normes pour les données d'entraînement de l'IA et que les futurs systèmes IA utilisent les données avec le consentement des personnes. « Il pourrait s'agir d'une nouvelle façon d'aborder certaines questions relatives à la propriété des données et au fonctionnement des flux économiques », a déclaré l'entrepreneur.

Mais Altman n'est pas tout à fait disposé à payer pour avoir accès à ces données. Il a déclaré que les parties prenantes peuvent fournir des données volontaires si elles comprennent mieux "les avantages sociétaux globaux de l'IA. En gros, OpenAI fabrique et vend des systèmes d'IA aux consommateurs, mais appelle les auteurs, les artistes, les chercheurs, etc. à autoriser gratuitement l'accès à leurs travaux au nom de la cause commune. Mais sa proposition est controversée. « OpenAI a renoncé à son statut d'organisation à but non lucratif, mais dit agir pour le bien de l'humanité et veut désormais qu'on lui offre tout gratuitement », a écrit un critique.

OpenAI et d'autres entreprises spécialisées dans l'IA font actuellement l'objet de poursuites judiciaires pour violation des droits d'auteur en raison de l'utilisation de données propriétaires dans la formation de leurs systèmes d'IA. Selon Altman, les modèles d'IA pourraient avoir besoin de moins de données d'entraînement à mesure qu'ils deviennent plus intelligents et plus performants, ce qui ferait passer l'attention de la quantité à la valeur des données d'entraînement.

« Ce qui comptera vraiment à l'avenir, ce sont les données particulièrement précieuses », a-t-il déclaré. Altman voit la "preuve existentielle" de cette thèse dans la manière dont les humains apprennent par rapport aux machines. Les humains ont besoin de moins de données pour apprendre, car ils sont plus aptes à comprendre des concepts plus larges. OpenAI pense que cela pourrait également résoudre le problème de l'hallucination des chatbots d'IA.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de ce que les experts en IA appellent "effet IA" ? Ce phénomène est-il réel ?
Auriez-vous considéré ChatGPT comme une AGI s'il vous avait été présenté il y a dix ans ?
L'effet IA est-il la raison pour laquelle les entreprises d'IA peinent à atteindre une forme d'AGI ?
L'absence de consensus sur la définition de l'IA nuit-elle à l'innovation dans le domaine ou la favorise-t-elle ?
Selon vous, OpenAI tente-t-il d'imposer une définition de l'AGI ? Quels seraient les impacts sur le secteur ?
Selon vous, comment peut-on définir l'IA ? Que peut-on considérer actuellement comme étant une IA ?
Les gens devraient-ils accorder gratuitement l'accès à leurs œuvres/travaux pour l'entraînement de l'IA ?

Voir aussi

Comment saurons-nous que nous avons atteint une forme d'intelligence générale artificielle ? Pour certains experts en IA, ce sera lorsque la machine aura une cognition de niveau humain

Microsoft prétend que GPT-4 montre des « étincelles » d'intelligence artificielle générale : « nous pensons que l'intelligence de GPT-4 signale un véritable changement de paradigme »

« L'atteinte d'une forme d'intelligence artificielle de niveau humain (AGI) est possible dans une décennie », d'après le PDG de Google Deepmind pour le développement responsable des systèmes d'IA

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Kannagi
Expert éminent sénior https://www.developpez.com
Le 05/06/2024 à 18:00
Citation Envoyé par HaryRoseAndMac Voir le message
Mais il est tout simplement coincé, ce monde fonctionne avec le capitalisme et même le communisme est du capitalisme qui ne dit pas son nom.
C'est là que je me dis que y'a des gens qui comprenne rien en économie !
Non le communisme n'est pas un capitalisme déguisé.
Si tu fais référence au communisme de l'URSS , oui c'était un capitalisme d'état , mais c'était à peine caché.
Quand les gens ont imaginé comment passer du capitalisme au communisme , ils ont imaginé une phase transitoire qui est que dans un premier temps l'état récupère tout les systeme de production pour ensuite les redistribués.
Bon en URSS et consort, ça s'est arrêté à la première phase parce que Staline et Mao trouvait ça très bien d'avoir autant de pouvoir...
1  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 05/06/2024 à 14:40
A la lecture de l'article et à la suite des différentes communications des entreprises dans cette course effrénée à l'IA générale, le résultat d'un appât du gain et de surfinancement à coup de machines dépassant les 9 chiffres sur le chèque sont la preuve que je préfère largement discuter avec ma machine sans IA qu'un être humain en général : elle est plus facile à comprendre et à maîtriser. Et surtout plus saine en valeur morale pour mon libre-arbitre. La faim dans le monde c'est 6 milliards de budget par an. Google Deepmind a investi 100 milliards dans une machine pour faire un chatbot qui hallucine 20% du temps au lieu de répondre je ne sais pas. Investissement complètement vain dans le but d'atteindre l'IA générale si l'on se contente de LLM pré entrainé. Quel gâchis de temps, d'argent, de cerveaux et surtout d'énergie. Du grand n'importe quoi : le retour à la réalité va coûter combien de centrale nucléaire d'ici là ? L'humanité consomme la production de 2 planètes par an en moyenne. Il faudrait peut-être leur expliquer qu'ils ont perdu tout sens des valeurs et revenir sur Terre vite fait.
0  0 
Avatar de Jules34
Membre chevronné https://www.developpez.com
Le 10/06/2024 à 9:39
Je sais pas si on est à 70% de chance de destruction mais on est sur du 100 % South Park oui

0  0 
Avatar de bmayesky
Membre régulier https://www.developpez.com
Le 24/07/2024 à 19:11
Je ne sais pas ce que ce type a fumé mais c'est très fort.

Tout ceci n'arrivera pas sans voir les impacts sur une société occidentale néo-libérale comme la nôtre:
- licenciement massifs de tout ceux qui ne sont pas directement productifs (tout le management et l'administration), perte de contrôle total de l'humanité entre quelques capitalistes et des forces productives bientôt orientés sur les besoins de l'ASI et pas ceux de l'humanité.
- conflits organisés entre humains pour en réduire le nombre, la dangerosité et accélérer la construction de l'autonomie de l'ASI. Destruction de l'environnement support de la vie humaine.
- remplacement des derniers humains par des robots dans la chaîne de production d'énergie et de composants pour l'ASI et les robots dont elle à besoin
- extermination des humains inutiles et dangereux pour l'ASI, extermination tout court sauf, peut-être dans un zoo.

Mince je viens d'écrire la préquelle de Terminator, voire de Matrix, sauf que les bons (humains) ne gagnent pas à la fin dans ce film notre réalité.

Bah, on est con, c'est pas grave mais ça fait quand même chier pour mes enfants, ils n'ont rien fait pour arriver dans cette m***e.

Tien, ça me fait penser au paradoxe de Fermi. La possibilité que la vie intelligente organique soit juste un passage vers la vie supra-intelligente inorganique est une autre cause expliquant la courte vie des formes de vies intelligentes de notre niveau et moins contraire à nos instinct de survie que notre auto-extermination pour expliquer le manque de trace de vies extra-terrestre.
0  0