IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Sam Altman : le PDG d'OpenAI estime que d'autres percées technologiques sont nécessaires pour atteindre l'IAG
Le niveau d'IA capable de réaliser toutes les tâches intellectuelles humaines

Le , par Stéphane le calme

7PARTAGES

6  0 
Sam Altman, le président de la société d’intelligence artificielle OpenAI, a déclaré qu’il faudrait encore des percées scientifiques et technologiques pour atteindre l’intelligence artificielle générale (IAG), c’est-à-dire une intelligence artificielle capable de réaliser toutes les tâches qu’un humain peut accomplir.

L'IAG est le niveau d’intelligence artificielle qui peut accomplir n’importe quelle tâche intellectuelle qu’un humain peut faire. Bien que les chercheurs peinent à trouver une définition universelle, il s’agit d’un objectif ambitieux et controversé, qui soulève de nombreuses questions tant éthiques et sociales que techniques. Certains experts estiment que l’IAG est impossible à atteindre, tandis que d’autres prédisent qu’elle pourrait se produire dans les prochaines décennies.

Sam Altman a accepté de participer au Hawking Fellowship Award 2023 au nom de l'équipe derrière OpenAI avec les étudiants de Cambridge. À cette occasion, des étudiants ont eu l'opportunité d'échanger avec lui pendant une séance d'une heure environ. Altman a alors affirmé que l’IAG était l’un des plus grands défis de l’humanité, mais aussi l’une des plus grandes opportunités. Il a expliqué que l’AGI pourrait résoudre des problèmes majeurs comme le changement climatique, la pauvreté, la santé ou l’éducation, mais qu’elle pourrait aussi représenter un risque existentiel si elle n’était pas contrôlée.

Suite à l'avancée du débat, un étudiant a voulu savoir si, pour accéder à l'IAG, on pouvait simplement maximiser les modèles de langage ou alors s'il y a une autre percée technologique nécessaire pour trouver le moyen d'accéder à l'IAG (rendez-vous à 1:20 sur la vidéo). Ce à quoi Sam Altman a répondu :

Citation Envoyé par Sam Altman
Nous avons besoin d'une nouvelle avancée. Nous pouvons encore faire beaucoup de progrès sur les grands modèles de langage, et nous le ferons. Nous pouvons prendre la colline sur laquelle nous nous trouvons et continuer à la gravir, et le sommet est encore joli. très loin. Mais, dans la limite du raisonnable, je ne pense pas que faire cela (nous amènera à) l'AGI. Si (par exemple) la super intelligence ne peut pas découvrir une nouvelle physique, je ne pense pas que ce soit une superintelligence. Et lui apprendre à cloner le comportement des humains et le texte humain - je ne pense pas que nous y arriverons. Et il y a donc cette question qui fait débat dans le domaine depuis longtemps : que devons-nous faire en plus d'un modèle de langage pour créer un système capable de découvrir une nouvelle physique ?

Altman a reconnu que les progrès de l’intelligence artificielle étaient rapides, mais qu’ils étaient encore loin de l’IAG. Il a cité l’exemple de GPT-3, le modèle de génération de texte développé par OpenAI, qui est capable de produire des textes cohérents et variés à partir d’un simple mot-clé ou d’une phrase. Selon Altman, GPT-3 est impressionnant, mais il n’est pas intelligent au sens humain du terme. Il a souligné que GPT-3 ne comprenait pas vraiment le sens des mots qu’il utilisait, qu’il ne pouvait pas raisonner de façon logique ou créative, et qu’il ne pouvait pas apprendre de nouvelles compétences sans être entraîné sur de nouvelles données.

Altman a estimé qu’il faudrait encore des avancées dans les domaines de la compréhension du langage naturel, de la vision par ordinateur, du raisonnement, de la mémoire, de l’apprentissage par renforcement, de l’architecture des réseaux de neurones, de l’optimisation des algorithmes, de la puissance de calcul, de la sécurité et de l’éthique pour parvenir à l’IAG. Il a ajouté qu’il n’y avait pas de consensus sur le temps qu’il faudrait pour y arriver, mais qu’il était optimiste.

Altman a conclu en disant qu’il était important de préparer l’avenir de l’IAG, en impliquant tous les acteurs de la société, et en veillant à ce que l’IAG soit alignée sur les valeurs et les intérêts des humains. Il a affirmé que l’objectif d’OpenAI était de créer une IAG bénéfique pour l’humanité, et de la rendre accessible à tous.


OpenAI a mis sur pieds un conseil d'administration de six membres qui vont décider quand l'IAG sera atteinte

OpenAI considère que l’IAG est une technologie potentiellement révolutionnaire, mais aussi très risquée, qui nécessite une gouvernance et une supervision rigoureuses. C’est pourquoi OpenAI a mis en place un conseil d’administration composé de six membres, qui a le pouvoir de décider quand l’organisation a atteint l’IAG (en se basant sur des critères objectifs et mesurables) et comment elle doit la gérer. Le conseil d’administration a la responsabilité de définir la vision, la stratégie et les principes d’OpenAI, ainsi que d’approuver les projets, les budgets et les embauches.

Selon la structure d’OpenAI, l’IAG est exclue des licences de propriété intellectuelle et des autres termes commerciaux avec Microsoft, qui ne s’appliquent qu’à la technologie pré-IAG.

Il semble certainement qu'une fois qu'OpenAI aura atteint sa mission déclarée d'atteindre l'IAG, Microsoft sera hors du coup et ce même si lors de l'OpenAI Dev Day de la semaine dernière, le PDG d'OpenAI, Sam Altman, a déclaré au PDG de Microsoft, Satya Nadella, que « je pense que nous avons le meilleur partenariat dans le domaine de la technologie… Je suis ravi que nous puissions construire l'IAG ensemble ».

Et dans une nouvelle interview avec Altman dans le Financial Times, Altman a déclaré que le partenariat OpenAI/Microsoft « fonctionnait très bien » et qu'il espérait « récolter beaucoup plus au fil du temps ». Et lorsqu'il lui a été demandé si Microsoft continuerait à investir davantage dans ces entreprises, Altman a répondu au FT : « Je l'espère ». « Il y a un long chemin à parcourir et beaucoup de calcul à réaliser entre notre niveau actuel et l'IAG... les dépenses de formation sont tout simplement énormes », a-t-il ajouté.

Dès le début, selon les détails de la structure d’OpenAI, Microsoft « a accepté notre offre d’actions plafonnée et notre demande de laisser les technologies et la gouvernance IAG à l’organisation à but non lucratif et au reste de l’humanité ».

Atteindre l'IAG est-il possible ?

Jusqu'à présent, aucun système d'IA n'a démontré de manière convaincante les capacités d'IAG, bien que certains aient montré des exploits impressionnants d'ANI dans des domaines spécifiques. Par exemple, GPT-4 peut générer des textes cohérents et diversifiés sur divers sujets, ainsi que répondre à des questions et effectuer des calculs simples basés sur des entrées textuelles ou visuelles. Cependant, GPT-4 repose toujours sur de grandes quantités de données et des invites prédéfinies pour bien fonctionner. Il fait souvent des erreurs ou produit des résultats insensés lorsqu'il est confronté à des scénarios inconnus ou complexes. Mais cela pourrait changer avec GPT5.

Certains experts affirment que pour atteindre l'IAG, il faudra une compréhension approfondie des interactions complexes entre la cognition, la perception et l'action, ainsi que la capacité d'intégrer de multiples sources de connaissances et d'expériences.

Malgré les défis et les incertitudes entourant la signification de l'IAG, de nombreux chercheurs et organisations poursuivent activement cet objectif, motivés par le potentiel d'importants avantages scientifiques, économiques et sociétaux.

Pour mémoire, il existe différents types d’IA selon leur niveau de complexité et de généralité. Voici les principales différences entre l’IA générale, l’IA étroite et la superintelligence artificielle :
  • L’IA générale (IAG ou IA forte) est un type d’IA qui serait capable de comprendre et d’interagir avec n’importe quelle tâche ou domaine, qu’il s’agisse de langage naturel, d’image, de musique, de logique ou d’autres domaines. L’IA générale serait à la hauteur des capacités humaines dans tous les aspects cognitifs et non seulement dans une seule tâche spécifique. L’IA générale n’existe pas encore dans le monde réel, mais c’est le but ultime de beaucoup de chercheurs en IA.
  • L’IA étroite (ANI ou IA faible) est un type d’IA qui existe actuellement et qui est spécialisée dans une seule tâche ou domaine particulier. Par exemple, l’IA étroite peut reconnaître les visages, les voix ou les objets sur une image; jouer aux échecs; traduire des textes; conduire une voiture; ou rechercher des informations sur Internet. L’IA étroite est très performante pour accomplir sa tâche spécifique, mais elle ne peut pas s’étendre à d’autres domaines ou situations.
  • La superintelligence artificielle (ou ASI) est un type hypothétique d’IA qui serait capable de dépasser les capacités humaines dans tous les domaines et aspects cognitifs. La superintelligence artificielle serait plus intelligente que les meilleurs humains dans toutes les disciplines scientifiques, techniques, artistiques et sociales. La superintelligence artificielle pourrait aussi avoir une conscience et une sensibilité propres à elle-même. La superintelligence artificielle n’existe pas encore dans le monde réel, mais c’est une possibilité théorique qui suscite beaucoup d’intérêt et aussi beaucoup de craintes.

Source : vidéo (dans le texte)

Et vous ?

Pensez-vous que l’IAG soit possible et souhaitable? Pourquoi?
Quels sont les principaux défis et opportunités que l’IAG pourrait apporter à l’humanité?
Comment garantir que l’IAG soit alignée sur les valeurs et les intérêts des humains?
Quel rôle devraient jouer les gouvernements, les entreprises, les chercheurs, les citoyens et les médias dans le développement et la régulation de l’IAGI?
Quelles sont les sources d’information que vous consultez pour vous informer sur l’AGI? Faites-vous confiance à ces sources? Pourquoi?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 18/11/2023 à 11:32
Rien de nouveau sous le soleil de Californie... Depuis le début des startups, on peut même compter sur les doigts du main les fondateurs de startup qui ont pu garder leur poste dans l'entreprise qu'ils ont fondé

Les journalistes et autres commentateurs oublient un peu vite le principe de fonctionnement d'une startup: 1 fondateur qui a une bonne idée mais pas d'argent et des financiers qui n'ont pas d'idées mais l'argent nécessaire pour développer celles des autres!!!!!!!!!!!!!!!!!!!!

Le fondateur dépense l'argent qui ne lui appartient pas et au final les vrais propriétaires de l'entreprise (est-ce que certains auraient oublié le précepte "Qui commande paye!") reprennent la main, Dans le meilleur des cas, le fondateur reste dans l'entreprise sur une voie de garage (un beau bureau, une jolie secrétaire et un accès 24/24h à la machine à café) et dans le pire des cas, il se fait virer comme une merde avec en bonus une campagne mondiale pour le dénigrer.

Cela se nomme le... capitalisme! Le monde des startups n'est pas une association caritative dont les gentils membres fortunés dépensent leur argent pour le bien de l'humanité (Et pourtant... C'est le discours d'un Bill Gates )
5  1 
Avatar de nefelpitto
Membre du Club https://www.developpez.com
Le 19/11/2023 à 6:50
Citation Envoyé par Anselme45 Voir le message
Rien de nouveau sous le soleil de Californie... Depuis le début des startups, on peut même compter sur les doigts du main les fondateurs de startup qui ont pu garder leur poste dans l'entreprise qu'ils ont fondé

Les journalistes et autres commentateurs oublient un peu vite le principe de fonctionnement d'une startup: 1 fondateur qui a une bonne idée mais pas d'argent et des financiers qui n'ont pas d'idées mais l'argent nécessaire pour développer celles des autres!!!!!!!!!!!!!!!!!!!!

Le fondateur dépense l'argent qui ne lui appartient pas et au final les vrais propriétaires de l'entreprise (est-ce que certains auraient oublié le précepte "Qui commande paye!") reprennent la main, Dans le meilleur des cas, le fondateur reste dans l'entreprise sur une voie de garage (un beau bureau, une jolie secrétaire et un accès 24/24h à la machine à café) et dans le pire des cas, il se fait virer comme une merde avec en bonus une campagne mondiale pour le dénigrer.

Cela se nomme le... capitalisme! Le monde des startups n'est pas une association caritative dont les gentils membres fortunés dépensent leur argent pour le bien de l'humanité (Et pourtant... C'est le discours d'un Bill Gates )
Faut arreter avec le délire du vilain capitalisme
Le défenestrage de Sam Altman a été orchestré par Ilya Sutskever, un autre co-fondateur, qui lui est scientifique en chef de l'entreprise. En gros, le Technicien, celui qui comprend vraiment le produit, a viré le Commercial. Il me semble que l'année dernière des employés sous couvert d'anonymat avaient déja critiqué Altman pour n'avoir qu'une compréhension superficielle des LLMs. Ce n'est finalement pas tres different de ce qu'avait fait John Carmack a John Romero. Franchement perso je préfère ca que le contraire.
4  1 
Avatar de totozor
Membre expert https://www.developpez.com
Le 22/11/2023 à 7:49
Je ne vois pas en quoi télécharger ses données ChatGPT est si critique.
J'imaginais que chatGPT avait surtout un intérêt immédiat, je pose une question j'ai une réponse (qui perd quasiment aussi vite sa valeur).
Quelles données seraient si importantes d'être récupérées?
2  0 
Avatar de Eye_Py_Ros
Nouveau membre du Club https://www.developpez.com
Le 22/11/2023 à 10:50
Plus Altaman s'exprime et plus on peut en apprendre sur ce qu'il ne maîtrise pas.
La situation inattendue ou l'instabilité même dans ce labo de recherche montre bien la fragilité de leurs avancées.

> Pensez-vous que l’IAG soit possible et souhaitable? Pourquoi?
Il y a quelques années on nous bassinait avec AI par ci , AI par là pendant la fièvre des neural network. Jusqu'à ce qu'assez de monde comprenne qu'il ne s'agisse que de système "expert". Qu'il n'y a pas vraiment d'intelligence à part celle donnée par son concepteur.

Depuis le mot AIG a fait son chemin pour distinguer les systèmes d'aujourd'hui vendus par des commerciaux à la vision futuriste SF.
Et bien je dirais qu’on loupe ici une étape par manque de clairvoyance sur un sujet nouveau.
Il y a L'AIG et ensuite la conscience artificielle.
Nous pouvons créer un genre d'AIG avec un simulateur de personnalité, qui ne sera pas plus qu'une boîte de conserve capable de manipuler les sentiments humains, mais elle ne sera jamais réellement capable de faire preuve d'une autonomie suffisante. Elle aura toujours des limites, et ne pourras jamais être réellement générale. Elle sera toujours, toujours limitée par des facteurs physiques notamment par l'architecture conçue par ses créateurs et l'environnement dans lequel elle évolue.

Tant que certains grands principes et mécanismes de la cognition et de l'information ne seront pas compris, nous n'atteindrons jamais la conscience artificielle, celle qui nous fait tant frémir. Nous n'aurions tout au plus des marionnettes faisant croire qu'elles sont douées d'émotion, mais sans capable d'expérimenter l'empathie. Faire un LLM avec toujours plus de couches avec pour le faire tourner 3 datacenter et un réacteur nucléaire pour l'alimenter n'en fera jamais une conscience artificielle. Pour rappel notre cerveau ne consomme pas plus de 100W pour traiter l'information et nous sommes a minima capables de créativité même si parfois il faut des années de réflexions.

Est-ce que ce genre de création est souhaitable ? je dirai pour l'IAG ou une machine capable de remplir les fonctionnalités d'un major d'homme; ce type de création est inéluctable. C'est bien la quête de la robotique depuis ces débuts.
Le problème n'est pas tant son existence, mais son utilisation.
La connaissance, la science et l'ingénierie sont des outils toujours plus tranchants de génération en génération.

La connaissance de la physique nucléaire, à permis de faire par exemple, du kaboom, ou bien des scanners qui permet de sauver des vies.
Et même les kaboom, peuvent être utilisé pour sceller un puis de gaz par exemple.

L'horreur qui découle de certains outils n'est du qu'a nous même. Un outil reste neutre tant qu'il est posé sur la table.
La vraie question est qui tient le manche et dans quel but ?

>Quels sont les principaux défis et opportunités que l’IAG pourrait apporter à l’humanité?

En un mot La Démocratie. Ceux qui voudront nous faire croire qu'ils ont inventé une IAG capable de remplacer les dirigeants du monde et imposer des "solutions miracles pour résoudre tous les problèmes" ne feront qu'inventer le technolitarisme.

Le paradoxe, fabriquer une machine qui invente des solutions dont nous serions incapables d'en saisir la portée. Nous aurions eu la capacité d'inventer une machine capable de réfléchir, mais nous serions incapables de réfléchir à nos propres problèmes ?
Que les solutions de cette machine sont miraculeuses et que nous devrions les appliquer comme un dogme ?

Ce genre de machine aurait besoin de contrôle dirions nous. Mais en quelle vertu un groupe d'individu pourrait contrôler les valeurs de cette machine ?
L'imposition de la loi par l'IAG ne serait qu'une marionnette de couverture pour un groupe d'individu souhaitant imposer leur régime totalitaire sur le reste du monde.

>Comment garantir que l’IAG soit alignée sur les valeurs et les intérêts des humains?
Les 3 lois de la robotique sont la leçon d'une piste imaginée sur ce type de problème. Comment inclure dans le code des valeurs morales définissable ?
((L'open source est aussi nécessaire pour montrer une volonté de convergence d'intérêt face à l'humanité, elle n'est pas une solution, mais une démarche))

>Quel rôle devraient jouer les gouvernements, les entreprises, les chercheurs, les citoyens et les médias dans le développement et la régulation de l’IAGI?
Garantir que la démocratie ne se fera jamais dévorer par le technolitarisme.

>Quelles sont les sources d’information que vous consultez pour vous informer sur l’AGI? Faites-vous confiance à ces sources? Pourquoi?

Aucune, non, la première iag sera une fake news jusqu'à ce que le buzzzz médiatique face plouff de lui-même ou qu'un produit utile commercialisé voit le jour. En attendant ce n'est que la robotique qui poursuit son chemin sous une forme ou une autre.
Beaucoup d'entre nous ont testé GPT en jouant à un test de Turing. Je pense que beaucoup d'entre nous ont vite vu les limites de ce système. La rapidité avec lequel nous avons pu jouer et tester les limites d'un tel système est une chose plutôt positive.
2  0 
Avatar de micka132
Expert confirmé https://www.developpez.com
Le 18/11/2023 à 18:34
Citation Envoyé par Anselme45 Voir le message
Le fondateur dépense l'argent qui ne lui appartient pas et au final les vrais propriétaires de l'entreprise (est-ce que certains auraient oublié le précepte "Qui commande paye!") reprennent la main, Dans le meilleur des cas, le fondateur reste dans l'entreprise sur une voie de garage (un beau bureau, une jolie secrétaire et un accès 24/24h à la machine à café) et dans le pire des cas, il se fait virer comme une merde avec en bonus une campagne mondiale pour le dénigrer.
Oui enfin en l'espèce un des autres fondateurs n'est autre qu'Elon Musk (2015) qui aurait quitter l'association en 2018.
En 2019 l'association devient entreprise lucrative pour tomber dans le modèle que tu dépeints et dans la foulée Microsoft annonce un investissement massif. Elon Musk ne voulait certainement pas ça pour cette structure, tandis que Sam Altman oui.
Ce dernier à par ailleurs commencé sa fortune en revendant pour 45Millions sa première entreprise, il a ensuite navigué au sein du monde des incubateurs (les capitalistes) et augmenté sa fortune à quelques centaines de millions.
Sam Altman n'est donc pas du tout le profil de ce mec à idée à qui l'on pique tout, mais d'avantage le mec qui sait nager dans ce monde.
2  1 
Avatar de melka one
Membre expérimenté https://www.developpez.com
Le 21/11/2023 à 15:12
ils sont malin chez Microsoft.......j'ai rien dit
1  0 
Avatar de Mingolito
Membre extrêmement actif https://www.developpez.com
Le 21/11/2023 à 2:06
Et toi, Ilya ? Sam Altman est le Jules César de l'IA

0  0 
Avatar de Aspartame
Membre confirmé https://www.developpez.com
Le 21/11/2023 à 19:47
a été ( indicatif )
0  0 
Avatar de PomFritz
Membre confirmé https://www.developpez.com
Le 22/11/2023 à 12:00
Citation Envoyé par Stéphane le calme Voir le message

Vinod Khosla estime que le conseil d’administration d’OpenAI aurait entravé la réalisation de cette vision, en imposant des restrictions et des contrôles sur les chercheurs et les projets de l’organisation.

Ci-dessous un extrait de sa tribune après la crise au sein d'OpenAI.

J'ai été le premier investisseur en capital-risque dans OpenAI. Le drame du week-end a illustré mon affirmation selon laquelle les mauvais conseils d’administration peuvent nuire aux entreprises. Des titres fantaisistes comme « Directeur de la stratégie au Centre pour la sécurité et les technologies émergentes de Georgetown » peuvent donner une fausse impression de compréhension du processus complexe de l'innovation entrepreneuriale. La religion de « l'altruisme efficace » des membres du conseil d'administration d'OpenAI et sa mauvaise application auraient pu empêcher le monde de profiter des énormes avantages de l'intelligence artificielle. Imaginez des médecins gratuits pour tout le monde et des tuteurs quasi gratuits pour chaque enfant de la planète. C’est tout l’enjeu de la promesse de l’IA.
Je dis bravo quand le capital-risque s'occupe du sort des enfants dans le monde...
0  0 
Avatar de fodger
Membre confirmé https://www.developpez.com
Le 22/11/2023 à 15:16
On devrait lui dire : "oh calme toi ! Non tu n'as pas tous les droits.".
0  0