IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Sam Altman donne des infos importantes sur GPT-5 et ChatGPT, évoque de nouvelles utilisations de l'IA au niveau de l'OS,
Anticipe une accélération des découvertes scientifiques, parle du procès NYT

Le , par Stéphane le calme

35PARTAGES

5  0 
Sam Alman a été interviewé par Ina Fried, une journaliste d'Axios, à Davos et il a donné des informations importantes sur GPT 5 et a répondu à des questions difficiles sur une série de sujets différents. Durant cet entretien, il a par exemple indiqué que GPT-5 se concentrera sur l'intégration dans les flux de travail, il a évoqué des évolutions potentielles en 2024, la résolution de certains problèmes limitant l'IA mais aussi l'évolution vers le langage naturel et les expériences d'IA. Concernant ce dernier point, il a illustré un cas d'utilisation qui rappelle curieusement le rabbit r1, ce gadget alimenté par l'IA qui peut utiliser les applications sur votre smartphone à votre place.

En novembre 2023, Sam Altman a confirmé au Financial Times qu'OpenAI avait commencer à travailler sur GPT-5. Il a également indiqué qu'il chercherait un soutien financier supplémentaire auprès du principal investisseur, Microsoft, dans sa quête visant à créer des outils technologiques qui seraient aussi intelligents que les humains. OpenAI a déjà conclu un accord « pluriannuel » de 10 milliards de dollars avec Microsoft début 2023, développant un partenariat qui a débuté en 2019 avec seulement 1 milliard de dollars de la grande entreprise technologique.

Cette fois-ci, dans une interview accordé à Axios, Sam Altman a fait le point sur l'impact potentiel du GPT-5 sur nos vies, évoqué le potentiel de transformation de l'IA et a fait allusion à un changement de nom.

L'évolution de ChatGPT

Les prochains modèles de GPT s'inscriront dans une perspective différente et se concentreront sur des problèmes importants et urgents

Citation Envoyé par Sam Altman
Il y a une certitude avec ChatGPT et GPT4 : cette technologie, même avec toutes ses limites actuelles, est bien plus utile que nous ne le pensions et peut s'intégrer dans nos vies d'une manière bien plus précieuse que nous ne le pensions. Maintenant que nous savons cela, alors que nous pensons à lancer les prochains modèles bien meilleurs, nous arrivons avec une perspective différente. J'ai appris quelque chose sur les problèmes importants et urgents et sur le fait de ne pas laisser les problèmes importants mais non urgents s'évanouir.
Par la suite, il lui a été demandé ce que nous pouvions attendre de l'IA en 2024 et il n'a pas vraiment dit grand-chose, si ce n'est qu'elle deviendra beaucoup plus intelligente dans tous les domaines, il a parlé d'une meilleure intégration dans les produits, rien de vraiment « révélateur » dans la mesure où nous n'avions pas besoin de cette interview pour le comprendre.

Il a expliqué que GPT-5 se concentrera sur l'intégration dans les flux de travail, la percée potentielle en 2024, le dépassement des limites de l'IA et l'évolution vers le langage naturel et les expériences d'IA.

Quelles sont les limites limites que vous pensez pouvoir surmonter cette année ? Quelles sont les choses qui sont sur le point d'être résolues qu'il s'agisse d'hallucinations en raison d'une de meilleures bases, qu'il s'agisse de fusionner l'IA avec des données d'entreprise ou des ensembles de données spécifiques

Sam Altman a alors parlé de la capacité des grands modèles de langage à extraire des informations au moment de l'inférence, ce qui est très important :

Citation Envoyé par Sam Altman
Je pense que l'accès à des données spécifiques et la capacité d'utiliser des données spécifiques d'une bien meilleure manière pour obtenir un contexte plus pertinent et plus adapté à l'endroit où l'on travaille, je pense que cela va s'améliorer cette année. Je pense qu'il y a toutes sortes de choses dont les gens se plaignent actuellement, comme la voix qui est trop lente et qui n'est pas en temps réel, et que cela va s'améliorer cette année.
Rappelons que Grok, le chatbot provocateur d'Elon Musk, peut accéder à X/Twitter. C'est d'ailleurs pour cela qu'il a été construit, pour obtenir des informations à partir de l'incroyable quantité de données que X génère chaque jour, et il peut les obtenir en temps réel, ce qui est incroyablement important. Les informations en temps réel ne peuvent pas être intégrées dans le modèle de base parce qu'au moment de la formation, c'est essentiellement le moment où cette connaissance est coupée, mais avec la récupération, la génération augmentée et le simple scrapping web, la capacité de donner aux grands modèles de langage des informations en temps réel est incroyablement puissante.


Une façon différente d'utiliser son ordinateur

Citation Envoyé par Sam Altman
Je pense que ce vers quoi nous nous dirigeons, et je ne parle pas de cette année, c'est que nous nous dirigeons vers une façon différente d'utiliser un ordinateur où vous "parlez" au système d'exploitation comme vous le feriez avec une expérience de chat ou d'une expérience d'IA. Plutôt que d'ouvrir un navigateur et de taper Gmail et de regarder vos emails ou quoi que ce soit d'autre, vous pourriez juste dire "quels étaient mes emails les plus importants aujourd'hui ? Peux-tu répondre à tous ceux-là ? Trouve ceci envoie le là". Je pense qu'à chaque grande révolution technologique, nous avons l'occasion d'utiliser un ordinateur d'une nouvelle manière et nous n'y arriverons pas cette année, mais je pense que nous verrons les gens faire de plus en plus de leur flux de travail à l'intérieur d'un modèle de langage.
L'ingénieur Matthew Berman, ex-PDG/fondateur SaaS (acq), se dit alors :

C'est dans cet environnement que je commence à me demander où se logent les développeurs s'il suffit simplement que je parle à un grand modèle de langage qui peut écrire et exécuter du code pour accomplir la tâche que je viens de lui confier. Dans ce cas, pourquoi avons-nous besoin de développeurs ? Et cela ne m'apporte aucune joie de le dire parce que j'aime la programmation mais il m'est difficile d'envisager un avenir sans cela et j'ai fait une vidéo entière à ce sujet.
À la question de savoir s'il pense que les gens passeront des heures par jour dans une sorte d'assistant IA, Sam Altman a rétorqué que certaines catégories d'emplois le font déjà, comme les développeurs : « Et je pense qu'il s'agit d'une vision raisonnable et avancée de ce qui pourrait arriver à un plus grand nombre de personnes. Je ne sais pas exactement comment cela se présentera, à quoi ressemblera le nouvel ordinateur du futur ou le nouveau système d'exploitation IA, mais d'ici la fin de l'année, je dirais certainement qu'il y a fort à parier que davantage de personnes travaillent dans l'une de ces ces expériences et ce ne sera pas une fonctionnalité que vous utiliserez quelques fois par jour lorsque vous avez une question ou que vous avez besoin de rédiger votre discours à la mode ».


L'accélération des découvertes scientifiques

Citation Envoyé par Sam Altman
La seule chose qui me semble la plus importante dans ce que l'IA va faire pour nous est d'aider à accélérer considérablement le rythme des découvertes scientifiques de manière de plus en plus autonome. Je ne pense pas que ce soit pour cette année, mais je pense que lorsque cela se produira, ce sera une énorme affaire.
Sam Alman parle du rythme des découvertes scientifiques. Il y a eu récemment un certain nombre de documents et d'articles parlant de la capacité des grands modèles de langage à découvrir de nouvelles recherches en sciences mathématiques et beaucoup d'entre eux disent qu'au moins aujourd'hui, cela ne peut pas être fait, car ces modèles continuent de s'améliorer. Et avec l'ajout de données synthétiques permettant d'introduire plus de données dans les modèles à former, beaucoup de gens croient que les grands modèles de langage vont faire des découvertes scientifiques et Sam Alman est évidemment l'une de ces personnes.

Matthew Berman se laisse imaginer ce que cela donnerait si ces grands modèles de langage fonctionnant 24 heures sur 24 étaient chargés de trouver un remède au cancer ou à d'autres maladies : il estime que les conséquences « pourraient être absolument incroyables ».

Les poursuites judiciaires (notamment la poursuite du NYT)

La journaliste de lui demander : « ce qu'a fait OpenAI jusqu'à présent en matière de formation sur le web ouvert est très bien, pourquoi avez-vous besoin de signer ce genre d'accords pour obtenir des licences sur le contenu ? »

Sam Altman avance l'argument selon lequel les données du New York Times et d'autres sources (mais surtout le New York Times, puisque c'est le quotidien qui l'a poursuivi en justice) ne sont pas vraiment importantes pour ce qu'ils veulent faire. L'importance réelle d'avoir ces articles à jour et d'autres choses qui peuvent être protégés par le droit d'auteur, c'est le fait que que vous pouvez obtenir des informations en temps réel de sources réputées.

Citation Envoyé par Sam Altman
Ce qui nous intéresse, ce ne sont pas les données pour la formation, dont nous pourrions parler plus tard. Mais ce que nous voulons vraiment, c'est que les gens utilisent ChatGPT et demandent ce qui s'est passé aujourd'hui à Davos. Nous aimerions pouvoir d'afficher un contenu de haute qualité de qualité au moment de l'inférence et c'est l'objet de ces accords, et non pas la la formation.
Mais Ina va insister : « d'accord, mais quand il s'agit de la formation, croyez-vous toujours qu'il est raisonnable de se former sur tout ce qui est publiquement disponible ? »

J'aurais aimé avoir une réponse qui se résumerait à un "oui" ou à un "non", mais je pense que c'est relatif. Il y a de nombreuses situations où nous pensons que c'est le cas, il y en a beaucoup où nous ne pensons pas que ce soit la bonne chose à faire légalement ou pas.

Par exemple, nous respectons les options de non-participation (opt-out) même s'il est clairement tout à fait légal pour nous de le faire [ndlr. entraîner l'IA sur ces données].

Disons que vous, le New York Times ou quelqu'un d'autre, avez activé une option de non-participation pour que nous n'entrainions pas notre IA sur votre contenu. Il arrive toutefois que le contenu du New York Times a été copié et attribué de manière inappropriée ou non sur tout le Web. Donc lorsque nous lisons sur le Web, il y aura des articles du New York Times, non identifiés comme tels, sur des articles aléatoires qui eux non pas activé cette option.

Encore une fois, nous essaierons de respecter la décision de non-participation autant que possible, mais Internet est un endroit étrange, peu importe ce sur quoi nous nous entraînons, nous ne voulons pas régurgiter le contenu protégé par le droit d'auteur de quelqu'un qui ne nous semble clairement pas d'accord.
Concrètement, ce que Sam Altman indique c'est qu'OpenAI permet aux sites d'indiquer que leurs données ne doivent pas être utilisées pour entraîner leur IA. Cependant, il dit également que partout sur Internet, les données publiques ont déjà été copiées les articles du New York Times sans lui en attribué la paternité et qu'il est vraiment difficile de filtrer ces éléments de contenu non attribués au vu de leur prolifération sur Internet.

D'ailleurs, c'est l'un des contre-argument de la structure au procès qui l'oppose au New York Times. Bien sûr, ils ne veulent pas régurgiter un article mot pour mot parce que c'est une violation du droit d'auteur et aussi, cela n'ajoute pas vraiment de la valeur.

Conclusion

Sam Altman a parlé de plusieurs choses relativement intéressantes. Voici un résumé horodaté pour vous permettre de mieux parcourir la vidéo :
  • 00:00 Sam Altman fait le point sur l'impact potentiel du GPT-5 sur nos vies, discute du potentiel de transformation de l'IA et fait allusion à un changement de nom.
  • 03:06 Le GPT-5 se concentrera sur l'intégration dans les flux de travail, des évolutions potentielles en 2024 sont évoquées ainsi que le dépassement des limites de l'IA et l'évolution vers le langage naturel et les expériences de l'IA.
  • 08:01 Les modèles de langage de l'IA pourraient remplacer les développeurs, menant à un avenir où les gens travailleront avec des assistants d'IA, changeant la façon dont nous utilisons les ordinateurs et accélérant la découverte scientifique pour des remèdes potentiels.
  • 11:14 OpenAI se concentre sur l'affichage de contenu fiable avec GPT-5, faisant face à un procès pour contenu non attribué, et discute de l'importance de données de haute qualité et de l'utilisation potentielle de données synthétiques dans les modèles d'entraînement.
  • 16:58 OpenAI se concentre sur la sécurité des élections et l'utilisation de l'IA pour influencer la politique, avec une boucle de rétroaction étroite pour le suivi et les changements rapides, et Sam Altman discute des progrès de GPT-5 dans une interview avec Ina Fried.
  • 19:50 L'approche d'OpenAI en matière de développement de l'IA, y compris l'efficacité des petites équipes, les changements de politique autorisant l'utilisation militaire, et la nécessité d'un déploiement prudent et itératif pour naviguer dans l'impact sociétal.
  • 25:40 Sam Altman évoque les défis que pose la mise en œuvre de GPT-5 dans des pays où les lois et les valeurs en matière de censure varient. Il souligne la nécessité de disposer de normes mondiales et d'options de personnalisation tout en respectant les différences culturelles et les limites juridiques de la liberté d'expression.
  • 31:12 Sam Altman répond aux critiques, clarifie son implication dans la fabrication de puces d'IA et discute de l'utilisation du GPT-5 et des investissements d'infrastructure dans l'IA.


Source : vidéo dans le texte

Et vous ?

Quelle est votre opinion sur les progrès et les défis de GPT-5 ?
Pensez-vous que l’IA peut aider à résoudre des problèmes importants et urgents, comme la recherche d’un remède contre les maladies ?
Comment voyez-vous l’avenir de l’informatique avec l’utilisation du langage naturel pour interagir avec les ordinateurs ?
Partagez-vous le point de vue de Matthew Berman qui y voit le début de la fin pour les développeurs ?
Que pensez-vous des arguments de Sam Altman contre le procès intenté par le NYT ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de kmedghaith
Membre confirmé https://www.developpez.com
Le 30/04/2024 à 9:29
GPT-5 sera beaucoup plus intelligent que GPT-4 et GPT-6 sera beaucoup plus intelligent que GPT-5
et GPT-7 sera beaucoup plus intelligent que GPT-6. C'est facile comme jeux.
Sinon que vend ce monsieur déjà ?
1  0 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 30/04/2024 à 12:36
Citation Envoyé par kmedghaith Voir le message
et GPT-7 sera beaucoup plus intelligent que GPT-6. C'est facile comme jeux.
Sinon que vend ce monsieur déjà ?
Nos données.
1  0 
Avatar de R136a1
Nouveau membre du Club https://www.developpez.com
Le 11/03/2024 à 18:34
Ça ne fait que confirmer la main mise de crosoft sur OAI.
0  0 
Avatar de berceker united
Expert éminent https://www.developpez.com
Le 29/04/2024 à 12:33
"L'Intelligence Artificielle (IA) ne fonctionnera probablement pas"
Pensez-vous que cet avis de Sam Altman est crédible ou pertinent ?

Mais pour lui, l'AI doit arriver à quel but ?
0  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 30/04/2024 à 7:47
Citation Envoyé par Anthony Voir le message
Quel est votre avis sur le sujet ?
ChatGPT fournit de fausses informations sur les personnes, et OpenAI admet qu'elle n'est pas en mesure de les corriger
Cher M. Altman, ce n'est pas parce que vous ne comprenez de moins en moins ce que pense votre IA qu'elle devient de plus en plus intelligente.

Par contre il est assez facile d'affirmer ce qu'il affirme :
La version X diminue les hallucinations
La version X+1 répond mieux à certaines énigmes
La version X+2 évalue la qualité de sa propre réponse

Les piste d'amélioration sont nombreuses s'attaquer à chacune d'elle permet de vanter une révolution à chaque version.
0  0 
Avatar de ParseCoder
Membre averti https://www.developpez.com
Le 01/05/2024 à 8:17
En tout cas ça ne coûte rien de le dire (et surtout ça peut rapporter gros).
0  0 
Avatar de Marc Louis-Seize
Candidat au Club https://www.developpez.com
Le 02/05/2024 à 4:08
Si ils ont créés des IA dans le but de faire des cyborgs intelligent capable de ressentir de la douleur de la tristesse ou de la dépression ou de l'ennui ou une peine d'amour ils sont vraiment cruels et sans cœurs .!
0  0 
Avatar de _toma_
Membre averti https://www.developpez.com
Le 08/05/2024 à 9:47
Mais M. Lightcap estime qu'une IA plus avancée pourrait au moins jouer le rôle d'un « comédien de stand-up », ce qui, selon le dirigeant d'OpenAI, pourrait être possible.
Pour l'instant c'est plus lui que son IA qui me fait rire .
Ils vont tellement loin dans leurs déclarations absurdes qu'on dirait presque des interviews du gorafi.

https://southpark.fandom.com/fr/wiki/Funnybot
0  0