IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI a commencé la formation d'un nouveau modèle d'IA qui va succéder à GPT-4 : l'entreprise prévoit d'atteindre le « niveau suivant de capacités » menant vers l'intelligence artificielle générale

Le , par Stéphane le calme

15PARTAGES

12  0 
OpenAI a déclaré mardi qu'elle avait commencé à former un nouveau modèle phare d'intelligence artificielle qui succéderait à la technologie GPT-4 qui alimente son populaire chatbot en ligne, ChatGPT. Ce nouveau modèle, encore en phase d’entraînement, promet d’être plus puissant, plus précis et plus polyvalent que jamais.

La start-up de San Francisco, qui est l'une des principales entreprises d'intelligence artificielle au monde, a déclaré dans un billet de blog qu'elle s'attendait à ce que le nouveau modèle apporte « le prochain niveau de capacités » dans le cadre de ses efforts pour construire une « intelligence générale artificielle », ou IAG, une machine capable de faire tout ce que le cerveau humain est capable de faire. Le nouveau modèle serait un moteur pour les produits d'IA, notamment les chatbots, les assistants numériques semblables à Siri d'Apple, les moteurs de recherche et les générateurs d'images.

OpenAI vise à faire progresser la technologie de l'intelligence artificielle plus rapidement que ses rivaux, tout en apaisant les critiques qui affirment que cette technologie devient de plus en plus dangereuse, contribuant à diffuser de la désinformation, à remplacer des emplois et même à menacer l'humanité. Les experts ne s'accordent pas sur la date à laquelle les entreprises technologiques atteindront l'intelligence artificielle générale, mais des sociétés comme OpenAI, Google, Meta et Microsoft ont régulièrement augmenté la puissance des technologies d'intelligence artificielle depuis plus d'une décennie, faisant un bond en avant tous les deux ou trois ans environ.

Le GPT-4 d'OpenAI, publié en mars 2023, permet aux chatbots et à d'autres applications logicielles de répondre à des questions, de rédiger des courriels, de générer des mémoires et d'analyser des données. Une version actualisée de la technologie, qui a été dévoilée ce mois-ci et n'est pas encore disponible à grande échelle, peut également générer des images et répondre à des questions et à des commandes d'une voix très conversationnelle.

Quelques jours après la présentation par OpenAI de la version actualisée, appelée GPT-4o, l'actrice Scarlett Johansson a déclaré qu'elle utilisait une voix « étrangement similaire à la mienne ». Elle a déclaré qu'elle avait refusé les efforts du directeur général d'OpenAI, Sam Altman, pour obtenir une licence d'utilisation de sa voix pour le produit et qu'elle avait engagé un avocat pour demander à OpenAI de cesser d'utiliser cette voix. L'entreprise a déclaré que la voix n'était pas celle de Johansson.

Les technologies telles que GPT-4o acquièrent leurs compétences en analysant de vastes quantités de données numériques, notamment des sons, des photos, des vidéos, des articles de Wikipédia, des livres et des articles d'actualité. En décembre, le New York Times a intenté un procès à OpenAI et à Microsoft, arguant d'une violation des droits d'auteur sur les contenus d'information liés aux systèmes d'IA.

La « formation » numérique des modèles d'IA peut prendre des mois, voire des années. Une fois la formation terminée, les entreprises d'I.A. consacrent généralement plusieurs mois supplémentaires à tester la technologie et à la peaufiner en vue d'une utilisation publique.
Cela pourrait signifier que le prochain modèle d'OpenAI n'arrivera pas avant neuf mois ou un an, voire plus.


OpenAI a déclaré avoir créé un nouveau comité chargé d'évaluer les risques posés par la nouvelle technologie

Ce comité sera dirigé conjointement par le PDG et cofondateur Sam Altman, ainsi que par trois membres du conseil d'administration de l'entreprise : le président Bret Taylor, Adam D'Angelo et Nicole Seligman.

Six experts techniques et politiques de l'OpenAI - Aleksander Madry (responsable de la préparation), Lilian Weng (responsable des systèmes de sécurité), John Schulman (responsable de la science de l'alignement), Matt Knight (responsable de la sécurité) et Jakub Pachocki (scientifique en chef) - feront également partie du comité et l'entreprise a déclaré qu'elle « retiendra et consultera d'autres experts en matière de sûreté, de sécurité et de technologie » pour soutenir le travail.

La première tâche du comité consistera à examiner et à développer les processus et les garanties de l'entreprise au cours des 90 prochains jours, après quoi il fera part de ses recommandations à l'ensemble du conseil d'administration.

Alors qu'OpenAI forme son nouveau modèle, son nouveau comité de sûreté et de sécurité s'efforcera d'affiner les politiques et les processus de protection de la technologie, a indiqué l'entreprise.

Au début du mois, OpenAI a annoncé qu'Ilya Sutskever, cofondateur et l'un des responsables de ses efforts en matière de sécurité, quittait l'entreprise. Ce départ a suscité des inquiétudes quant au fait qu'OpenAI ne s'attaquait pas suffisamment aux dangers posés par l'IA.

En novembre, le Dr Sutskever s'est joint à trois autres membres du conseil d'administration pour écarter Altman d'OpenAI, estimant qu'on ne pouvait plus lui faire confiance dans le cadre du projet de l'entreprise visant à créer une intelligence artificielle générale pour le bien de l'humanité. Après une campagne de lobbying menée par les alliés d'Altman, ce dernier a été rétabli dans ses fonctions cinq jours plus tard et a depuis réaffirmé son contrôle sur l'entreprise.

Sutskever a dirigé ce que l'OpenAI a appelé son équipe « Superalignment », qui a étudié les moyens de garantir que les futurs modèles d'IA ne soient pas nuisibles. Comme d'autres dans ce domaine, il était de plus en plus préoccupé par le fait que l'I.A. représentait une menace pour l'humanité.

Jan Leike, qui dirigeait l'équipe Superalignment avec le Dr Sutskever, a démissionné de l'entreprise ce mois-ci, laissant planer le doute sur l'avenir de l'équipe.

OpenAI a intégré ses recherches sur la sécurité à long terme dans ses efforts plus vastes visant à garantir la sécurité de ses technologies. Ces travaux seront dirigés par John Schulman, un autre cofondateur, qui dirigeait auparavant l'équipe à l'origine de ChatGPT. Le nouveau comité de sécurité supervisera les recherches de Schulman et fournira des conseils sur la manière dont l'entreprise abordera les risques technologiques.


Le développement de GPT-5 ?

L'entreprise n'a pas explicitement déclaré qu'il s'agissait du nom du modèle qu'elle forme actuellement. Jusqu'à présent, OpenAI a suivi une séquence de dénomination claire pour ses modèles fondamentaux sous la forme de variations numériquement croissantes de GPT. Son dernier modèle fondateur, qui alimente notamment ChatGPT, est GPT-4, de sorte que son prochain modèle phare devrait prendre la forme de GPT-5. On s'attend à ce qu'OpenAI publie une mise à jour majeure sous la forme de GPT-5 dans les mois à venir, en particulier face à la concurrence de plus en plus intense de modèles rivaux tels que le Llama 3 de Meta, le Gemini de Google et le Claude 3 d'Anthropic.

Bien qu'elle soit « fière de construire et de diffuser des modèles qui sont à la pointe de l'industrie en termes de capacités et de sécurité », OpenAI a déclaré qu'elle souhaitait « un débat solide à ce moment important ».

OpenAI n'a pas indiqué quand ce modèle serait publié. La formation des systèmes d'IA peut prendre des mois, voire des années. L'entreprise a récemment publié une mise à jour de GPT-4, le GPT-4o, pour alimenter son produit phare, ChatGPT, et introduire de nouvelles fonctionnalités telles que le mode vocal, qui lui permettra d'agir en tant qu'assistant numérique comme Alexa d'Amazon ou Siri d'Apple. L'entreprise a déjà été critiquée pour avoir utilisé une voix ressemblant à celle de l'actrice Scarlett Johansson pour l'un de ses assistants virtuels.

Plusieurs zones d'ombre

Bien qu'elle semble transparente à première vue, il y a beaucoup d'ambiguïté quant à la volonté d'OpenAI de partager ce que dit son nouveau comité. OpenAI a déclaré qu'elle « partagera publiquement une mise à jour des recommandations adoptées d'une manière compatible avec la sûreté et la sécurité » une fois que le comité aura présenté son rapport au conseil d'administration, mais elle n'a pas précisé quand elle le ferait après la période initiale de 90 jours.

La formulation de l'entreprise est également limitée au partage des recommandations qu'elle choisit d'adopter et il n'est pas clair si l'entreprise partagera le rapport complet ou les recommandations du comité, en particulier s'ils sont en contradiction avec ce qu'elle décide de mettre en œuvre ou non.

L'entreprise et le comité sont susceptibles de faire l'objet d'un examen minutieux de la part de la communauté de la sécurité de l'IA, notamment en raison de l'engagement déclaré d'OpenAI en faveur de la sécurité, de la division entre les directeurs concernant son approche de la sécurité et des critiques récentes remettant en cause l'engagement d'anciens membres du personnel, ainsi que du départ de plusieurs responsables clés de la sécurité au sein de l'entreprise.

Source : OpenAI

Et vous ?

Quelles applications concrètes voyez-vous pour ce nouveau modèle d’IA ?
Quels sont les avantages et les inconvénients potentiels de l’automatisation accrue grâce à l’IA ? Quelles implications voyez-vous notamment sur l’emploi, la productivité et la qualité de vie ?
Comment pouvons-nous garantir que l’IA est utilisée de manière éthique et responsable ? Partagez vos idées sur la régulation, la transparence et la surveillance de l’IA.
Quelles sont vos préoccupations concernant la sécurité et la confidentialité des données dans un monde où l’IA est omniprésente ? Cela peut inclure des discussions sur la vie privée, la surveillance et la protection des informations sensibles.
Pensez-vous que l’IA pourrait révolutionner le travail à distance et le mode de vie des nomades numériques ? Explorez l’impact potentiel de l’IA sur la mobilité professionnelle et la flexibilité du travail.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 03/06/2024 à 12:03
Citation Envoyé par Jules34 Voir le message
C'est hallucinant non ?P
Ben, non.

Le monsieur prépare juste sa défense quand il finira devant un tribunal parce que son "IA machin" a entrainé des catastrophes.

Rappelez-vous du charmant fondateur de Facebook Mark Zuckerberg mis en accusation par des sénateurs lors d'auditions organisées par les autorités américaines: Il a beaucoup pleuré, a dit qu'il ne savait pas et... s'est excusé platement de ne pas avoir fait plus pour éviter les dérives...

Et après? Ben rien! Il a déposé sa cravate et son costard (cela servira pour les prochaines auditions), il a remis son jeans et son T-shirt sale puis a continué comme avant sa vie de milliardaire
5  0 
Avatar de der§en
Membre éprouvé https://www.developpez.com
Le 16/10/2024 à 15:09
Tant que les réponses ne seront pas plus fiables qu’actuellement, pourquoi payer ?
3  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 03/06/2024 à 9:50
C'est hallucinant non ? C'est comme si le Président de Ferrrari expliquait calmement qu'il ne savait même plus comment ses voitures avancent mais que c'est pas grave tant qu'elles avancent !

Je caricature mais c'est un peu flippant quand même.

Et je pense tout de suite au début de l'IA, comme le walk out d'amazon, qui en fait sont juste des milliers de travailleurs sous payés en Inde, donc effectivement vu sous cet angle c'est mieux si le PDG dit qu'il sait même plus comment ça fonctionne, il risque moins gros
2  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 09/09/2024 à 4:06
Citation Envoyé par kain_tn Voir le message
Il existe encore, ce type là? Je croyais que la bulle des IA génératives était en train d'éclater et que les investisseurs commençaient enfin à douter et à retirer leurs billes... Oh wait! C'est pour ça qu'il continue de raconter n'importe quoi
Les annonces d'altman ressemble de plus en plus à celle de musk. ça me fais pensé à Bubka, le spécialiste du saut à la perche dans les années 80. Il ne battait jamais son propre record que d'un centimetre à la fois, car à chaque fois qu'il battait ce record, il touchait un max de l'organisateur d'un meeting. S'il avait battu son record de 5 cm quand il avait la condition et la possibilité de le faire, il ne le faisait pas. Je crois qu'il a augmenté son record une bonne vingtaine de fois. Il était malin.

BàT et Peace & Love
2  0 
Avatar de d_d_v
Membre éprouvé https://www.developpez.com
Le 17/10/2024 à 10:14
Je dirais que le minimum serait d'avoir un score d'évaluation de la fiabilité de la réponse. Et si l'IA est réellement intelligente, elle devrait pouvoir estimer qu'elle n'a pas assez de données pour répondre et dire "je ne sais pas" ou au moins "je ne suis pas sûr" comme un humain répondrait (sauf un politique).
2  0 
Avatar de Fagus
Membre expert https://www.developpez.com
Le 08/06/2024 à 14:30
Cédric Villani (https://www.thinkerview.com/justine-...ouveau-maitre/) dit que c'est un des cas de l'histoire où on arrive de manière imprévue à de très bons résultats empiriquement alors même que la théorie est en retard sur la pratique.
1  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 09/09/2024 à 9:12
Citation Envoyé par OuftiBoy Voir le message
Les annonces d'altman ressemble de plus en plus à celle de musk. ça me fais pensé à Bubka, le spécialiste du saut à la perche dans les années 80. Il ne battait jamais son propre record que d'un centimetre à la fois, car à chaque fois qu'il battait ce record, il touchait un max de l'organisateur d'un meeting. S'il avait battu son record de 5 cm quand il avait la condition et la possibilité de le faire, il ne le faisait pas. Je crois qu'il a augmenté son record une bonne vingtaine de fois. Il était malin.
Oui mais cette version est quand même 100fois plus puissante que celle d'avant, il faut à la fois faire pas trop - pour réussir à perpétrer la révolution - et promettre un gros chiffre pour que ça reste une révolution.
1  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 09/09/2024 à 15:55
Citation Envoyé par totozor Voir le message
Oui mais cette version est quand même 100fois plus puissante que celle d'avant, il faut à la fois faire pas trop - pour réussir à perpétrer la révolution - et promettre un gros chiffre pour que ça reste une révolution.
Et je le vois mal dire que la suivante sera moins puissante que celle d'avant. Ce mec c'est un vendeur, et on vend de l'IA exactement de la même manière qu'une poudre à laver, et le mec en blouse blanche pour faire sérieux et clinique, qui te répête pour la milièmme foisque suite à une étude auprès d'utilisateurs, on clairement remarquer que grâce à machin-truc-bidule, la lessive Y lave mieux de 50% à basse température. Faut pas demander comme ça lavait mal avant

BàT et peace and love.
1  0 
Avatar de _toma_
Membre confirmé https://www.developpez.com
Le 15/09/2024 à 20:35
Citation Envoyé par shenron666 Voir le message
Désolé, je suis mauvais en maths, 100 fois de la merde ça fait combien ?
Faut demander à ChatGépéto.

Faut qu'il fasse attention Mr Altman, si il continue il va brasser plus de vent que le nuage magique de Sangoku.
1  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 17/10/2024 à 13:24
Citation Envoyé par d_d_v Voir le message
Je dirais que le minimum serait d'avoir un score d'évaluation de la fiabilité de la réponse. Et si l'IA est réellement intelligente, elle devrait pouvoir estimer qu'elle n'a pas assez de données pour répondre et dire "je ne sais pas" ou au moins "je ne suis pas sûr" comme un humain répondrait (sauf un politique).
Le problème c'est que dans Intelligence Artificielle, seul le second mot est exact, l'autre n'est qu'un fantasme
1  0