IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Sam Altman confirme qu'OpenAI a commencé à travailler sur GPT-5. Dans sa quête d'outils technologiques « superintelligents »
Il voudrait que Microsoft investisse davantage pour parvenir à l'IAG

Le , par Stéphane le calme

8PARTAGES

7  0 
OpenAI, la société derrière ChatGPT, a confirmé qu’elle avait commencé le travail sur son prochain modèle de traitement du langage naturel, GPT-5. Le PDG de l’entreprise, Sam Altman, a révélé cette information lors d’une interview accordée au magazine Financial Times. Il espère également que Microsoft va apporter plus de fonds dans OpenAI, déclarant : « Il y a un long chemin à parcourir et beaucoup de calcul à réaliser entre notre niveau actuel et l'AGI... les dépenses de formation sont tout simplement énormes ».

OpenAI a lancé ChatGPT il y a moins d'un an et depuis lors, l'IA est la tendance technologique numéro un. Cela est particulièrement vrai chez Microsoft, qui a investi pour la première fois dans OpenAI en 2019 et a continué à investir des fonds dans l'entreprise tout en utilisant ChatGPT et d'autres services pour ses propres produits d'IA comme Bing Chat, Copilot, etc.

Mais Sam Altman ne veut pas en rester là; il chercherait un soutien financier supplémentaire auprès du principal investisseur Microsoft dans sa quête visant à créer des outils technologiques « superintelligents » qui seraient aussi intelligents que les humains. OpenAI a déjà conclu un accord « pluriannuel » de 10 milliards de dollars avec Microsoft plus tôt cette année, développant un partenariat qui a débuté en 2019 avec seulement 1 milliard de dollars de la grande entreprise technologique.

Cependant, le PDG d'OpenAI de 38 ans souhaite obtenir encore plus de fonds pour affiner la commercialisation par OpenAI des nouvelles avancées en matière d'IA alors que la concurrence s'intensifie avec Google, qui est en pourparlers pour investir des centaines de millions de dollars dans Character.AI, une startup de robots IA développée par deux anciens employés de Google. Le modèle de chatbot avancé permet aux utilisateurs de discuter avec des versions virtuelles de célébrités comme Billie Eilish ou des personnages d'anime, tout en créant leurs propres chatbots et assistants IA.

« La vision est de créer une intelligence artificielle générale (AGI), de trouver comment la rendre sûre et d'en déterminer les avantages », a déclaré Altman au Financial Times, soulignant qu'il passait également du temps à rechercher « comment construire une superintelligence » et les moyens de construire augmenter la puissance de calcul pour y parvenir.


Plusieurs niveaux dans l'intelligence artificielle

L’intelligence artificielle est un domaine de l’informatique qui vise à créer des machines ou des programmes capables de réaliser des tâches qui nécessitent normalement de l’intelligence humaine, comme la perception, le raisonnement, l’apprentissage, la décision ou la créativité.

Il existe différents types d’IA selon leur niveau de complexité et de généralité. Voici les principales différences entre l’IA générale, l’IA étroite et la superintelligence artificielle :
  • L’IA générale (IAG ou IA forte) est un type d’IA qui serait capable de comprendre et d’interagir avec n’importe quelle tâche ou domaine, qu’il s’agisse de langage naturel, d’image, de musique, de logique ou d’autres domaines. L’IA générale serait à la hauteur des capacités humaines dans tous les aspects cognitifs et non seulement dans une seule tâche spécifique. L’IA générale n’existe pas encore dans le monde réel, mais c’est le but ultime de beaucoup de chercheurs en IA.
  • L’IA étroite (ANI ou IA faible) est un type d’IA qui existe actuellement et qui est spécialisée dans une seule tâche ou domaine particulier. Par exemple, l’IA étroite peut reconnaître les visages, les voix ou les objets sur une image; jouer aux échecs; traduire des textes; conduire une voiture; ou rechercher des informations sur Internet. L’IA étroite est très performante pour accomplir sa tâche spécifique, mais elle ne peut pas s’étendre à d’autres domaines ou situations.
  • La superintelligence artificielle (ou ASI) est un type hypothétique d’IA qui serait capable de dépasser les capacités humaines dans tous les domaines et aspects cognitifs. La superintelligence artificielle serait plus intelligente que les meilleurs humains dans toutes les disciplines scientifiques, techniques, artistiques et sociales. La superintelligence artificielle pourrait aussi avoir une conscience et une sensibilité propres à elle-même. La superintelligence artificielle n’existe pas encore dans le monde réel, mais c’est une possibilité théorique qui suscite beaucoup d’intérêt et aussi beaucoup de craintes.

Altman considère l'AGI comme la prochaine phase d'évolution de son entreprise en plein essor.

« À l'heure actuelle, les gens [disent] 'vous avez ce laboratoire de recherche, vous avez cette API [logiciel], vous avez le partenariat avec Microsoft, vous avez ce truc ChatGPT, maintenant il y a une boutique GPT.' Mais ce ne sont pas vraiment nos produits », a déclaré Altman au quotidien. « Ce sont des canaux vers notre seul produit, qui est l’intelligence, l’intelligence magique dans le ciel. Je pense que c’est de cela que nous parlons ».

Lorsqu'il lui a été demandé si Microsoft continuerait à investir davantage dans ces entreprises, Altman a répondu au FT : « Je l'espère ».

Le récent partenariat OpenAI-Microsoft de 10 milliards de dollars valorise la société d’IA d’Altman à environ 29 milliards de dollars, ont déclaré des sources au FT, et Altman a noté que tout dans l’accord « fonctionnait très bien ». « La croissance des revenus a été bonne cette année », a déclaré Altman dans une interview au média, même s'il en veut davantage. « Il y a un long chemin à parcourir et beaucoup de calcul à réaliser entre notre niveau actuel et l'AGI... les dépenses de formation sont tout simplement énormes », a-t-il ajouté.


Plus de financement de Microsoft ? D'accord mais combien ?

Altman est resté timide sur le montant supplémentaire qu'il espérait que Microsoft débourserait, ou sur le montant que l'entreprise dépensait actuellement en formation.

OpenAI serait en passe d'accumuler 1 milliard de dollars de ventes au cours des 12 prochains mois, grâce à sa vache à lait ChatGPT, qui a lancé un service d'abonnement de 20 dollars par mois plus tôt cette année.

Les données financières d'OpenAI, cependant, sont privées, et Altman a clairement indiqué qu'il n'avait pas l'intention de les rendre publiques de si tôt – peut-être parce qu'il n'a pas besoin de lever de capitaux supplémentaires et ne veut pas céder le contrôle d'OpenAI à une puissante entreprise technologique.

« Lorsque nous développerons la superintelligence, nous prendrons probablement des décisions que les investisseurs des marchés publics verraient de manière très étrange », a déclaré Altman lors d'un événement à Abu Dhabi plus tôt cette année, selon Bloomberg. « J'aime ne pas être en conflit, et je pense que la possibilité que nous devions prendre un jour une décision très étrange n'est pas triviale », a-t-il ajouté lorsqu'il a été interrogé sur sa décision de ne prendre aucune participation dans OpenAI.

OpenAI travaille à des outils plus autonomes que ses GPT personnalisables

La semaine dernière, OpenAI a lancé des GPT personnalisables, qui permettent aux utilisateurs de créer des chatbots personnalisés appelés GPT. Évoquant le lancement des GPT, Altman a déclaré au FT qu'OpenAI travaillait à la création d'outils plus autonomes capables d'effectuer des tâches et des actions de plus en plus avancées, telles que l'exécution de code, les paiements, l'envoi d'e-mails ou le dépôt de réclamations.

« Nous rendrons ces agents de plus en plus puissants… et les actions deviendront de plus en plus complexes à partir de là », a-t-il déclaré au média. « La valeur commerciale qui découlera de la possibilité de faire cela dans chaque catégorie, je pense, est plutôt bonne ».


OpenAI travaillerait également sur GPT-5, la prochaine génération de son « grand modèle de langage » ChatGPT

C'est ce qu'a déclaré Altman, bien qu'il n'ait pas divulgué de calendrier pour sa sortie.

Les rumeurs sur les réseaux sociaux suggèrent que GPT-5 pourrait être déployé dès décembre 2023, même s’il est difficile de savoir à quoi s’attendre, même pour Altman. Le patron d'OpenAI a déclaré qu'il était difficile de prédire exactement quelles nouvelles capacités et compétences le modèle pourrait avoir, selon FT.

« Jusqu'à ce que nous formions ce modèle, c'est comme un jeu de devinettes amusant pour nous », a-t-il déclaré. « Nous essayons de nous améliorer, car je pense qu’il est important, du point de vue de la sécurité, de prédire les capacités. Je ne peux pas vous dire exactement ce que GPT-5 va faire que GPT-4 ne peut pas faire ».

Atteindre l'IAG est-il possible ?

Jusqu'à présent, aucun système d'IA n'a démontré de manière convaincante les capacités d'IAG, bien que certains aient montré des exploits impressionnants d'ANI dans des domaines spécifiques. Par exemple, GPT-4 peut générer des textes cohérents et diversifiés sur divers sujets, ainsi que répondre à des questions et effectuer des calculs simples basés sur des entrées textuelles ou visuelles. Cependant, GPT-4 repose toujours sur de grandes quantités de données et des invites prédéfinies pour bien fonctionner. Il fait souvent des erreurs ou produit des résultats insensés lorsqu'il est confronté à des scénarios inconnus ou complexes. Mais cela pourrait changer avec GPT5.

Certains experts affirment que pour atteindre l'IAG, il faudra une compréhension approfondie des interactions complexes entre la cognition, la perception et l'action, ainsi que la capacité d'intégrer de multiples sources de connaissances et d'expériences.

Malgré les défis et les incertitudes entourant la signification de l'IAG, de nombreux chercheurs et organisations poursuivent activement cet objectif, motivés par le potentiel d'importants avantages scientifiques, économiques et sociétaux.

Source : Financial Times

Et vous ?

Que pensez-vous des ambitions du PDG d'OpenAI ?
Êtes-vous surpris par les chiffres avancés par Sam Altman qui affirme que l'offre d'abonnement à 20 dollars a pratiquement généré un milliard de dollars à OpenAI ?
GPT-5, une menace potentielle ou une aide pour les travailleurs ?
Au vu de votre connaissance du paysage de l'intelligence artificielle, l'IAG est-elle encore lointaine selon vous ? Qu'en est-il de la superintelligence artificielle ? Une chimère ou une évolution technologique possible ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 18/11/2023 à 11:32
Rien de nouveau sous le soleil de Californie... Depuis le début des startups, on peut même compter sur les doigts du main les fondateurs de startup qui ont pu garder leur poste dans l'entreprise qu'ils ont fondé

Les journalistes et autres commentateurs oublient un peu vite le principe de fonctionnement d'une startup: 1 fondateur qui a une bonne idée mais pas d'argent et des financiers qui n'ont pas d'idées mais l'argent nécessaire pour développer celles des autres!!!!!!!!!!!!!!!!!!!!

Le fondateur dépense l'argent qui ne lui appartient pas et au final les vrais propriétaires de l'entreprise (est-ce que certains auraient oublié le précepte "Qui commande paye!") reprennent la main, Dans le meilleur des cas, le fondateur reste dans l'entreprise sur une voie de garage (un beau bureau, une jolie secrétaire et un accès 24/24h à la machine à café) et dans le pire des cas, il se fait virer comme une merde avec en bonus une campagne mondiale pour le dénigrer.

Cela se nomme le... capitalisme! Le monde des startups n'est pas une association caritative dont les gentils membres fortunés dépensent leur argent pour le bien de l'humanité (Et pourtant... C'est le discours d'un Bill Gates )
5  1 
Avatar de nefelpitto
Membre du Club https://www.developpez.com
Le 19/11/2023 à 6:50
Citation Envoyé par Anselme45 Voir le message
Rien de nouveau sous le soleil de Californie... Depuis le début des startups, on peut même compter sur les doigts du main les fondateurs de startup qui ont pu garder leur poste dans l'entreprise qu'ils ont fondé

Les journalistes et autres commentateurs oublient un peu vite le principe de fonctionnement d'une startup: 1 fondateur qui a une bonne idée mais pas d'argent et des financiers qui n'ont pas d'idées mais l'argent nécessaire pour développer celles des autres!!!!!!!!!!!!!!!!!!!!

Le fondateur dépense l'argent qui ne lui appartient pas et au final les vrais propriétaires de l'entreprise (est-ce que certains auraient oublié le précepte "Qui commande paye!") reprennent la main, Dans le meilleur des cas, le fondateur reste dans l'entreprise sur une voie de garage (un beau bureau, une jolie secrétaire et un accès 24/24h à la machine à café) et dans le pire des cas, il se fait virer comme une merde avec en bonus une campagne mondiale pour le dénigrer.

Cela se nomme le... capitalisme! Le monde des startups n'est pas une association caritative dont les gentils membres fortunés dépensent leur argent pour le bien de l'humanité (Et pourtant... C'est le discours d'un Bill Gates )
Faut arreter avec le délire du vilain capitalisme
Le défenestrage de Sam Altman a été orchestré par Ilya Sutskever, un autre co-fondateur, qui lui est scientifique en chef de l'entreprise. En gros, le Technicien, celui qui comprend vraiment le produit, a viré le Commercial. Il me semble que l'année dernière des employés sous couvert d'anonymat avaient déja critiqué Altman pour n'avoir qu'une compréhension superficielle des LLMs. Ce n'est finalement pas tres different de ce qu'avait fait John Carmack a John Romero. Franchement perso je préfère ca que le contraire.
4  1 
Avatar de totozor
Membre expert https://www.developpez.com
Le 22/11/2023 à 7:49
Je ne vois pas en quoi télécharger ses données ChatGPT est si critique.
J'imaginais que chatGPT avait surtout un intérêt immédiat, je pose une question j'ai une réponse (qui perd quasiment aussi vite sa valeur).
Quelles données seraient si importantes d'être récupérées?
2  0 
Avatar de Eye_Py_Ros
Nouveau membre du Club https://www.developpez.com
Le 22/11/2023 à 10:50
Plus Altaman s'exprime et plus on peut en apprendre sur ce qu'il ne maîtrise pas.
La situation inattendue ou l'instabilité même dans ce labo de recherche montre bien la fragilité de leurs avancées.

> Pensez-vous que l’IAG soit possible et souhaitable? Pourquoi?
Il y a quelques années on nous bassinait avec AI par ci , AI par là pendant la fièvre des neural network. Jusqu'à ce qu'assez de monde comprenne qu'il ne s'agisse que de système "expert". Qu'il n'y a pas vraiment d'intelligence à part celle donnée par son concepteur.

Depuis le mot AIG a fait son chemin pour distinguer les systèmes d'aujourd'hui vendus par des commerciaux à la vision futuriste SF.
Et bien je dirais qu’on loupe ici une étape par manque de clairvoyance sur un sujet nouveau.
Il y a L'AIG et ensuite la conscience artificielle.
Nous pouvons créer un genre d'AIG avec un simulateur de personnalité, qui ne sera pas plus qu'une boîte de conserve capable de manipuler les sentiments humains, mais elle ne sera jamais réellement capable de faire preuve d'une autonomie suffisante. Elle aura toujours des limites, et ne pourras jamais être réellement générale. Elle sera toujours, toujours limitée par des facteurs physiques notamment par l'architecture conçue par ses créateurs et l'environnement dans lequel elle évolue.

Tant que certains grands principes et mécanismes de la cognition et de l'information ne seront pas compris, nous n'atteindrons jamais la conscience artificielle, celle qui nous fait tant frémir. Nous n'aurions tout au plus des marionnettes faisant croire qu'elles sont douées d'émotion, mais sans capable d'expérimenter l'empathie. Faire un LLM avec toujours plus de couches avec pour le faire tourner 3 datacenter et un réacteur nucléaire pour l'alimenter n'en fera jamais une conscience artificielle. Pour rappel notre cerveau ne consomme pas plus de 100W pour traiter l'information et nous sommes a minima capables de créativité même si parfois il faut des années de réflexions.

Est-ce que ce genre de création est souhaitable ? je dirai pour l'IAG ou une machine capable de remplir les fonctionnalités d'un major d'homme; ce type de création est inéluctable. C'est bien la quête de la robotique depuis ces débuts.
Le problème n'est pas tant son existence, mais son utilisation.
La connaissance, la science et l'ingénierie sont des outils toujours plus tranchants de génération en génération.

La connaissance de la physique nucléaire, à permis de faire par exemple, du kaboom, ou bien des scanners qui permet de sauver des vies.
Et même les kaboom, peuvent être utilisé pour sceller un puis de gaz par exemple.

L'horreur qui découle de certains outils n'est du qu'a nous même. Un outil reste neutre tant qu'il est posé sur la table.
La vraie question est qui tient le manche et dans quel but ?

>Quels sont les principaux défis et opportunités que l’IAG pourrait apporter à l’humanité?

En un mot La Démocratie. Ceux qui voudront nous faire croire qu'ils ont inventé une IAG capable de remplacer les dirigeants du monde et imposer des "solutions miracles pour résoudre tous les problèmes" ne feront qu'inventer le technolitarisme.

Le paradoxe, fabriquer une machine qui invente des solutions dont nous serions incapables d'en saisir la portée. Nous aurions eu la capacité d'inventer une machine capable de réfléchir, mais nous serions incapables de réfléchir à nos propres problèmes ?
Que les solutions de cette machine sont miraculeuses et que nous devrions les appliquer comme un dogme ?

Ce genre de machine aurait besoin de contrôle dirions nous. Mais en quelle vertu un groupe d'individu pourrait contrôler les valeurs de cette machine ?
L'imposition de la loi par l'IAG ne serait qu'une marionnette de couverture pour un groupe d'individu souhaitant imposer leur régime totalitaire sur le reste du monde.

>Comment garantir que l’IAG soit alignée sur les valeurs et les intérêts des humains?
Les 3 lois de la robotique sont la leçon d'une piste imaginée sur ce type de problème. Comment inclure dans le code des valeurs morales définissable ?
((L'open source est aussi nécessaire pour montrer une volonté de convergence d'intérêt face à l'humanité, elle n'est pas une solution, mais une démarche))

>Quel rôle devraient jouer les gouvernements, les entreprises, les chercheurs, les citoyens et les médias dans le développement et la régulation de l’IAGI?
Garantir que la démocratie ne se fera jamais dévorer par le technolitarisme.

>Quelles sont les sources d’information que vous consultez pour vous informer sur l’AGI? Faites-vous confiance à ces sources? Pourquoi?

Aucune, non, la première iag sera une fake news jusqu'à ce que le buzzzz médiatique face plouff de lui-même ou qu'un produit utile commercialisé voit le jour. En attendant ce n'est que la robotique qui poursuit son chemin sous une forme ou une autre.
Beaucoup d'entre nous ont testé GPT en jouant à un test de Turing. Je pense que beaucoup d'entre nous ont vite vu les limites de ce système. La rapidité avec lequel nous avons pu jouer et tester les limites d'un tel système est une chose plutôt positive.
2  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 16/11/2023 à 0:23
Je verrais plutôt cette question:

Que pensez-vous des communications à outrance de OpenIA, ces temps?
Je pense que toutes ces déclarations de Altman et la diarrhée d'articles qui s'en suit un peu partout dans les médias sert uniquement à demander plus d'argent aux actionnaires.
2  1 
Avatar de micka132
Expert confirmé https://www.developpez.com
Le 18/11/2023 à 18:34
Citation Envoyé par Anselme45 Voir le message
Le fondateur dépense l'argent qui ne lui appartient pas et au final les vrais propriétaires de l'entreprise (est-ce que certains auraient oublié le précepte "Qui commande paye!") reprennent la main, Dans le meilleur des cas, le fondateur reste dans l'entreprise sur une voie de garage (un beau bureau, une jolie secrétaire et un accès 24/24h à la machine à café) et dans le pire des cas, il se fait virer comme une merde avec en bonus une campagne mondiale pour le dénigrer.
Oui enfin en l'espèce un des autres fondateurs n'est autre qu'Elon Musk (2015) qui aurait quitter l'association en 2018.
En 2019 l'association devient entreprise lucrative pour tomber dans le modèle que tu dépeints et dans la foulée Microsoft annonce un investissement massif. Elon Musk ne voulait certainement pas ça pour cette structure, tandis que Sam Altman oui.
Ce dernier à par ailleurs commencé sa fortune en revendant pour 45Millions sa première entreprise, il a ensuite navigué au sein du monde des incubateurs (les capitalistes) et augmenté sa fortune à quelques centaines de millions.
Sam Altman n'est donc pas du tout le profil de ce mec à idée à qui l'on pique tout, mais d'avantage le mec qui sait nager dans ce monde.
2  1 
Avatar de melka one
Membre expérimenté https://www.developpez.com
Le 21/11/2023 à 15:12
ils sont malin chez Microsoft.......j'ai rien dit
1  0 
Avatar de Mingolito
Membre extrêmement actif https://www.developpez.com
Le 21/11/2023 à 2:06
Et toi, Ilya ? Sam Altman est le Jules César de l'IA

0  0 
Avatar de Aspartame
Membre confirmé https://www.developpez.com
Le 21/11/2023 à 19:47
a été ( indicatif )
0  0 
Avatar de PomFritz
Membre confirmé https://www.developpez.com
Le 22/11/2023 à 12:00
Citation Envoyé par Stéphane le calme Voir le message

Vinod Khosla estime que le conseil d’administration d’OpenAI aurait entravé la réalisation de cette vision, en imposant des restrictions et des contrôles sur les chercheurs et les projets de l’organisation.

Ci-dessous un extrait de sa tribune après la crise au sein d'OpenAI.

J'ai été le premier investisseur en capital-risque dans OpenAI. Le drame du week-end a illustré mon affirmation selon laquelle les mauvais conseils d’administration peuvent nuire aux entreprises. Des titres fantaisistes comme « Directeur de la stratégie au Centre pour la sécurité et les technologies émergentes de Georgetown » peuvent donner une fausse impression de compréhension du processus complexe de l'innovation entrepreneuriale. La religion de « l'altruisme efficace » des membres du conseil d'administration d'OpenAI et sa mauvaise application auraient pu empêcher le monde de profiter des énormes avantages de l'intelligence artificielle. Imaginez des médecins gratuits pour tout le monde et des tuteurs quasi gratuits pour chaque enfant de la planète. C’est tout l’enjeu de la promesse de l’IA.
Je dis bravo quand le capital-risque s'occupe du sort des enfants dans le monde...
0  0