Sam Altman donne des infos importantes sur GPT-5 et ChatGPT, évoque de nouvelles utilisations de l'IA au niveau de l'OS,
Anticipe une accélération des découvertes scientifiques, parle du procès NYT
Le 2024-01-25 11:38:42, par Stéphane le calme, Chroniqueur Actualités
Sam Alman a été interviewé par Ina Fried, une journaliste d'Axios, à Davos et il a donné des informations importantes sur GPT 5 et a répondu à des questions difficiles sur une série de sujets différents. Durant cet entretien, il a par exemple indiqué que GPT-5 se concentrera sur l'intégration dans les flux de travail, il a évoqué des évolutions potentielles en 2024, la résolution de certains problèmes limitant l'IA mais aussi l'évolution vers le langage naturel et les expériences d'IA. Concernant ce dernier point, il a illustré un cas d'utilisation qui rappelle curieusement le rabbit r1, ce gadget alimenté par l'IA qui peut utiliser les applications sur votre smartphone à votre place.
En novembre 2023, Sam Altman a confirmé au Financial Times qu'OpenAI avait commencer à travailler sur GPT-5. Il a également indiqué qu'il chercherait un soutien financier supplémentaire auprès du principal investisseur, Microsoft, dans sa quête visant à créer des outils technologiques qui seraient aussi intelligents que les humains. OpenAI a déjà conclu un accord « pluriannuel » de 10 milliards de dollars avec Microsoft début 2023, développant un partenariat qui a débuté en 2019 avec seulement 1 milliard de dollars de la grande entreprise technologique.
Cette fois-ci, dans une interview accordé à Axios, Sam Altman a fait le point sur l'impact potentiel du GPT-5 sur nos vies, évoqué le potentiel de transformation de l'IA et a fait allusion à un changement de nom.
L'évolution de ChatGPT
Les prochains modèles de GPT s'inscriront dans une perspective différente et se concentreront sur des problèmes importants et urgents
Envoyé par Sam Altman
Par la suite, il lui a été demandé ce que nous pouvions attendre de l'IA en 2024 et il n'a pas vraiment dit grand-chose, si ce n'est qu'elle deviendra beaucoup plus intelligente dans tous les domaines, il a parlé d'une meilleure intégration dans les produits, rien de vraiment « révélateur » dans la mesure où nous n'avions pas besoin de cette interview pour le comprendre.
Il a expliqué que GPT-5 se concentrera sur l'intégration dans les flux de travail, la percée potentielle en 2024, le dépassement des limites de l'IA et l'évolution vers le langage naturel et les expériences d'IA.
Quelles sont les limites limites que vous pensez pouvoir surmonter cette année ? Quelles sont les choses qui sont sur le point d'être résolues qu'il s'agisse d'hallucinations en raison d'une de meilleures bases, qu'il s'agisse de fusionner l'IA avec des données d'entreprise ou des ensembles de données spécifiques
Sam Altman a alors parlé de la capacité des grands modèles de langage à extraire des informations au moment de l'inférence, ce qui est très important :
Envoyé par Sam Altman
Rappelons que Grok, le chatbot provocateur d'Elon Musk, peut accéder à X/Twitter. C'est d'ailleurs pour cela qu'il a été construit, pour obtenir des informations à partir de l'incroyable quantité de données que X génère chaque jour, et il peut les obtenir en temps réel, ce qui est incroyablement important. Les informations en temps réel ne peuvent pas être intégrées dans le modèle de base parce qu'au moment de la formation, c'est essentiellement le moment où cette connaissance est coupée, mais avec la récupération, la génération augmentée et le simple scrapping web, la capacité de donner aux grands modèles de langage des informations en temps réel est incroyablement puissante.
Une façon différente d'utiliser son ordinateur
Envoyé par Sam Altman
L'ingénieur Matthew Berman, ex-PDG/fondateur SaaS (acq), se dit alors :
À la question de savoir s'il pense que les gens passeront des heures par jour dans une sorte d'assistant IA, Sam Altman a rétorqué que certaines catégories d'emplois le font déjà, comme les développeurs : « Et je pense qu'il s'agit d'une vision raisonnable et avancée de ce qui pourrait arriver à un plus grand nombre de personnes. Je ne sais pas exactement comment cela se présentera, à quoi ressemblera le nouvel ordinateur du futur ou le nouveau système d'exploitation IA, mais d'ici la fin de l'année, je dirais certainement qu'il y a fort à parier que davantage de personnes travaillent dans l'une de ces ces expériences et ce ne sera pas une fonctionnalité que vous utiliserez quelques fois par jour lorsque vous avez une question ou que vous avez besoin de rédiger votre discours à la mode ».
L'accélération des découvertes scientifiques
Envoyé par Sam Altman
Sam Alman parle du rythme des découvertes scientifiques. Il y a eu récemment un certain nombre de documents et d'articles parlant de la capacité des grands modèles de langage à découvrir de nouvelles recherches en sciences mathématiques et beaucoup d'entre eux disent qu'au moins aujourd'hui, cela ne peut pas être fait, car ces modèles continuent de s'améliorer. Et avec l'ajout de données synthétiques permettant d'introduire plus de données dans les modèles à former, beaucoup de gens croient que les grands modèles de langage vont faire des découvertes scientifiques et Sam Alman est évidemment l'une de ces personnes.
Matthew Berman se laisse imaginer ce que cela donnerait si ces grands modèles de langage fonctionnant 24 heures sur 24 étaient chargés de trouver un remède au cancer ou à d'autres maladies : il estime que les conséquences « pourraient être absolument incroyables ».
Les poursuites judiciaires (notamment la poursuite du NYT)
La journaliste de lui demander : « ce qu'a fait OpenAI jusqu'à présent en matière de formation sur le web ouvert est très bien, pourquoi avez-vous besoin de signer ce genre d'accords pour obtenir des licences sur le contenu ? »
Sam Altman avance l'argument selon lequel les données du New York Times et d'autres sources (mais surtout le New York Times, puisque c'est le quotidien qui l'a poursuivi en justice) ne sont pas vraiment importantes pour ce qu'ils veulent faire. L'importance réelle d'avoir ces articles à jour et d'autres choses qui peuvent être protégés par le droit d'auteur, c'est le fait que que vous pouvez obtenir des informations en temps réel de sources réputées.
Envoyé par Sam Altman
Mais Ina va insister : « d'accord, mais quand il s'agit de la formation, croyez-vous toujours qu'il est raisonnable de se former sur tout ce qui est publiquement disponible ? »
Concrètement, ce que Sam Altman indique c'est qu'OpenAI permet aux sites d'indiquer que leurs données ne doivent pas être utilisées pour entraîner leur IA. Cependant, il dit également que partout sur Internet, les données publiques ont déjà été copiées les articles du New York Times sans lui en attribué la paternité et qu'il est vraiment difficile de filtrer ces éléments de contenu non attribués au vu de leur prolifération sur Internet.
D'ailleurs, c'est l'un des contre-argument de la structure au procès qui l'oppose au New York Times. Bien sûr, ils ne veulent pas régurgiter un article mot pour mot parce que c'est une violation du droit d'auteur et aussi, cela n'ajoute pas vraiment de la valeur.
Conclusion
Sam Altman a parlé de plusieurs choses relativement intéressantes. Voici un résumé horodaté pour vous permettre de mieux parcourir la vidéo :
Source : vidéo dans le texte
Et vous ?
Quelle est votre opinion sur les progrès et les défis de GPT-5 ?
Pensez-vous que l’IA peut aider à résoudre des problèmes importants et urgents, comme la recherche d’un remède contre les maladies ?
Comment voyez-vous l’avenir de l’informatique avec l’utilisation du langage naturel pour interagir avec les ordinateurs ?
Partagez-vous le point de vue de Matthew Berman qui y voit le début de la fin pour les développeurs ?
Que pensez-vous des arguments de Sam Altman contre le procès intenté par le NYT ?
En novembre 2023, Sam Altman a confirmé au Financial Times qu'OpenAI avait commencer à travailler sur GPT-5. Il a également indiqué qu'il chercherait un soutien financier supplémentaire auprès du principal investisseur, Microsoft, dans sa quête visant à créer des outils technologiques qui seraient aussi intelligents que les humains. OpenAI a déjà conclu un accord « pluriannuel » de 10 milliards de dollars avec Microsoft début 2023, développant un partenariat qui a débuté en 2019 avec seulement 1 milliard de dollars de la grande entreprise technologique.
Cette fois-ci, dans une interview accordé à Axios, Sam Altman a fait le point sur l'impact potentiel du GPT-5 sur nos vies, évoqué le potentiel de transformation de l'IA et a fait allusion à un changement de nom.
L'évolution de ChatGPT
Les prochains modèles de GPT s'inscriront dans une perspective différente et se concentreront sur des problèmes importants et urgents
Il a expliqué que GPT-5 se concentrera sur l'intégration dans les flux de travail, la percée potentielle en 2024, le dépassement des limites de l'IA et l'évolution vers le langage naturel et les expériences d'IA.
Quelles sont les limites limites que vous pensez pouvoir surmonter cette année ? Quelles sont les choses qui sont sur le point d'être résolues qu'il s'agisse d'hallucinations en raison d'une de meilleures bases, qu'il s'agisse de fusionner l'IA avec des données d'entreprise ou des ensembles de données spécifiques
Sam Altman a alors parlé de la capacité des grands modèles de langage à extraire des informations au moment de l'inférence, ce qui est très important :
Une façon différente d'utiliser son ordinateur
C'est dans cet environnement que je commence à me demander où se logent les développeurs s'il suffit simplement que je parle à un grand modèle de langage qui peut écrire et exécuter du code pour accomplir la tâche que je viens de lui confier. Dans ce cas, pourquoi avons-nous besoin de développeurs ? Et cela ne m'apporte aucune joie de le dire parce que j'aime la programmation mais il m'est difficile d'envisager un avenir sans cela et j'ai fait une vidéo entière à ce sujet.
L'accélération des découvertes scientifiques
Matthew Berman se laisse imaginer ce que cela donnerait si ces grands modèles de langage fonctionnant 24 heures sur 24 étaient chargés de trouver un remède au cancer ou à d'autres maladies : il estime que les conséquences « pourraient être absolument incroyables ».
Les poursuites judiciaires (notamment la poursuite du NYT)
La journaliste de lui demander : « ce qu'a fait OpenAI jusqu'à présent en matière de formation sur le web ouvert est très bien, pourquoi avez-vous besoin de signer ce genre d'accords pour obtenir des licences sur le contenu ? »
Sam Altman avance l'argument selon lequel les données du New York Times et d'autres sources (mais surtout le New York Times, puisque c'est le quotidien qui l'a poursuivi en justice) ne sont pas vraiment importantes pour ce qu'ils veulent faire. L'importance réelle d'avoir ces articles à jour et d'autres choses qui peuvent être protégés par le droit d'auteur, c'est le fait que que vous pouvez obtenir des informations en temps réel de sources réputées.
J'aurais aimé avoir une réponse qui se résumerait à un "oui" ou à un "non", mais je pense que c'est relatif. Il y a de nombreuses situations où nous pensons que c'est le cas, il y en a beaucoup où nous ne pensons pas que ce soit la bonne chose à faire légalement ou pas.
Par exemple, nous respectons les options de non-participation (opt-out) même s'il est clairement tout à fait légal pour nous de le faire [ndlr. entraîner l'IA sur ces données].
Disons que vous, le New York Times ou quelqu'un d'autre, avez activé une option de non-participation pour que nous n'entrainions pas notre IA sur votre contenu. Il arrive toutefois que le contenu du New York Times a été copié et attribué de manière inappropriée ou non sur tout le Web. Donc lorsque nous lisons sur le Web, il y aura des articles du New York Times, non identifiés comme tels, sur des articles aléatoires qui eux non pas activé cette option.
Encore une fois, nous essaierons de respecter la décision de non-participation autant que possible, mais Internet est un endroit étrange, peu importe ce sur quoi nous nous entraînons, nous ne voulons pas régurgiter le contenu protégé par le droit d'auteur de quelqu'un qui ne nous semble clairement pas d'accord.
Par exemple, nous respectons les options de non-participation (opt-out) même s'il est clairement tout à fait légal pour nous de le faire [ndlr. entraîner l'IA sur ces données].
Disons que vous, le New York Times ou quelqu'un d'autre, avez activé une option de non-participation pour que nous n'entrainions pas notre IA sur votre contenu. Il arrive toutefois que le contenu du New York Times a été copié et attribué de manière inappropriée ou non sur tout le Web. Donc lorsque nous lisons sur le Web, il y aura des articles du New York Times, non identifiés comme tels, sur des articles aléatoires qui eux non pas activé cette option.
Encore une fois, nous essaierons de respecter la décision de non-participation autant que possible, mais Internet est un endroit étrange, peu importe ce sur quoi nous nous entraînons, nous ne voulons pas régurgiter le contenu protégé par le droit d'auteur de quelqu'un qui ne nous semble clairement pas d'accord.
D'ailleurs, c'est l'un des contre-argument de la structure au procès qui l'oppose au New York Times. Bien sûr, ils ne veulent pas régurgiter un article mot pour mot parce que c'est une violation du droit d'auteur et aussi, cela n'ajoute pas vraiment de la valeur.
Conclusion
Sam Altman a parlé de plusieurs choses relativement intéressantes. Voici un résumé horodaté pour vous permettre de mieux parcourir la vidéo :
- 00:00 Sam Altman fait le point sur l'impact potentiel du GPT-5 sur nos vies, discute du potentiel de transformation de l'IA et fait allusion à un changement de nom.
- 03:06 Le GPT-5 se concentrera sur l'intégration dans les flux de travail, des évolutions potentielles en 2024 sont évoquées ainsi que le dépassement des limites de l'IA et l'évolution vers le langage naturel et les expériences de l'IA.
- 08:01 Les modèles de langage de l'IA pourraient remplacer les développeurs, menant à un avenir où les gens travailleront avec des assistants d'IA, changeant la façon dont nous utilisons les ordinateurs et accélérant la découverte scientifique pour des remèdes potentiels.
- 11:14 OpenAI se concentre sur l'affichage de contenu fiable avec GPT-5, faisant face à un procès pour contenu non attribué, et discute de l'importance de données de haute qualité et de l'utilisation potentielle de données synthétiques dans les modèles d'entraînement.
- 16:58 OpenAI se concentre sur la sécurité des élections et l'utilisation de l'IA pour influencer la politique, avec une boucle de rétroaction étroite pour le suivi et les changements rapides, et Sam Altman discute des progrès de GPT-5 dans une interview avec Ina Fried.
- 19:50 L'approche d'OpenAI en matière de développement de l'IA, y compris l'efficacité des petites équipes, les changements de politique autorisant l'utilisation militaire, et la nécessité d'un déploiement prudent et itératif pour naviguer dans l'impact sociétal.
- 25:40 Sam Altman évoque les défis que pose la mise en œuvre de GPT-5 dans des pays où les lois et les valeurs en matière de censure varient. Il souligne la nécessité de disposer de normes mondiales et d'options de personnalisation tout en respectant les différences culturelles et les limites juridiques de la liberté d'expression.
- 31:12 Sam Altman répond aux critiques, clarifie son implication dans la fabrication de puces d'IA et discute de l'utilisation du GPT-5 et des investissements d'infrastructure dans l'IA.
Source : vidéo dans le texte
Et vous ?
-
kmedghaithMembre confirméGPT-5 sera beaucoup plus intelligent que GPT-4 et GPT-6 sera beaucoup plus intelligent que GPT-5
Sinon que vend ce monsieur déjà ?le 30/04/2024 à 9:29 -
L33tigeMembre expérimentéle 30/04/2024 à 12:36
-
R136a1Nouveau membre du ClubÇa ne fait que confirmer la main mise de crosoft sur OAI.le 11/03/2024 à 18:34
-
berceker unitedExpert éminent"L'Intelligence Artificielle (IA) ne fonctionnera probablement pas"
Mais pour lui, l'AI doit arriver à quel but ?le 29/04/2024 à 12:33 -
totozorMembre expertChatGPT fournit de fausses informations sur les personnes, et OpenAI admet qu'elle n'est pas en mesure de les corriger
Cher M. Altman, ce n'est pas parce que vous ne comprenez de moins en moins ce que pense votre IA qu'elle devient de plus en plus intelligente.
Par contre il est assez facile d'affirmer ce qu'il affirme :
La version X diminue les hallucinations
La version X+1 répond mieux à certaines énigmes
La version X+2 évalue la qualité de sa propre réponse
Les piste d'amélioration sont nombreuses s'attaquer à chacune d'elle permet de vanter une révolution à chaque version.le 30/04/2024 à 7:47 -
ParseCoderMembre avertiEn tout cas ça ne coûte rien de le dire (et surtout ça peut rapporter gros).le 01/05/2024 à 8:17
-
Marc Louis-SeizeCandidat au ClubSi ils ont créés des IA dans le but de faire des cyborgs intelligent capable de ressentir de la douleur de la tristesse ou de la dépression ou de l'ennui ou une peine d'amour ils sont vraiment cruels et sans cœurs .!le 02/05/2024 à 4:08
-
_toma_Membre avertiMais M. Lightcap estime qu'une IA plus avancée pourrait au moins jouer le rôle d'un « comédien de stand-up », ce qui, selon le dirigeant d'OpenAI, pourrait être possible.
.
Ils vont tellement loin dans leurs déclarations absurdes qu'on dirait presque des interviews du gorafi.
https://southpark.fandom.com/fr/wiki/Funnybotle 08/05/2024 à 9:47