IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI a commencé la formation d'un nouveau modèle d'IA qui va succéder à GPT-4 : l'entreprise prévoit d'atteindre le « niveau suivant de capacités » menant vers l'intelligence artificielle générale

Le , par Stéphane le calme

15PARTAGES

12  0 
OpenAI a déclaré mardi qu'elle avait commencé à former un nouveau modèle phare d'intelligence artificielle qui succéderait à la technologie GPT-4 qui alimente son populaire chatbot en ligne, ChatGPT. Ce nouveau modèle, encore en phase d’entraînement, promet d’être plus puissant, plus précis et plus polyvalent que jamais.

La start-up de San Francisco, qui est l'une des principales entreprises d'intelligence artificielle au monde, a déclaré dans un billet de blog qu'elle s'attendait à ce que le nouveau modèle apporte « le prochain niveau de capacités » dans le cadre de ses efforts pour construire une « intelligence générale artificielle », ou IAG, une machine capable de faire tout ce que le cerveau humain est capable de faire. Le nouveau modèle serait un moteur pour les produits d'IA, notamment les chatbots, les assistants numériques semblables à Siri d'Apple, les moteurs de recherche et les générateurs d'images.

OpenAI vise à faire progresser la technologie de l'intelligence artificielle plus rapidement que ses rivaux, tout en apaisant les critiques qui affirment que cette technologie devient de plus en plus dangereuse, contribuant à diffuser de la désinformation, à remplacer des emplois et même à menacer l'humanité. Les experts ne s'accordent pas sur la date à laquelle les entreprises technologiques atteindront l'intelligence artificielle générale, mais des sociétés comme OpenAI, Google, Meta et Microsoft ont régulièrement augmenté la puissance des technologies d'intelligence artificielle depuis plus d'une décennie, faisant un bond en avant tous les deux ou trois ans environ.

Le GPT-4 d'OpenAI, publié en mars 2023, permet aux chatbots et à d'autres applications logicielles de répondre à des questions, de rédiger des courriels, de générer des mémoires et d'analyser des données. Une version actualisée de la technologie, qui a été dévoilée ce mois-ci et n'est pas encore disponible à grande échelle, peut également générer des images et répondre à des questions et à des commandes d'une voix très conversationnelle.

Quelques jours après la présentation par OpenAI de la version actualisée, appelée GPT-4o, l'actrice Scarlett Johansson a déclaré qu'elle utilisait une voix « étrangement similaire à la mienne ». Elle a déclaré qu'elle avait refusé les efforts du directeur général d'OpenAI, Sam Altman, pour obtenir une licence d'utilisation de sa voix pour le produit et qu'elle avait engagé un avocat pour demander à OpenAI de cesser d'utiliser cette voix. L'entreprise a déclaré que la voix n'était pas celle de Johansson.

Les technologies telles que GPT-4o acquièrent leurs compétences en analysant de vastes quantités de données numériques, notamment des sons, des photos, des vidéos, des articles de Wikipédia, des livres et des articles d'actualité. En décembre, le New York Times a intenté un procès à OpenAI et à Microsoft, arguant d'une violation des droits d'auteur sur les contenus d'information liés aux systèmes d'IA.

La « formation » numérique des modèles d'IA peut prendre des mois, voire des années. Une fois la formation terminée, les entreprises d'I.A. consacrent généralement plusieurs mois supplémentaires à tester la technologie et à la peaufiner en vue d'une utilisation publique.
Cela pourrait signifier que le prochain modèle d'OpenAI n'arrivera pas avant neuf mois ou un an, voire plus.


OpenAI a déclaré avoir créé un nouveau comité chargé d'évaluer les risques posés par la nouvelle technologie

Ce comité sera dirigé conjointement par le PDG et cofondateur Sam Altman, ainsi que par trois membres du conseil d'administration de l'entreprise : le président Bret Taylor, Adam D'Angelo et Nicole Seligman.

Six experts techniques et politiques de l'OpenAI - Aleksander Madry (responsable de la préparation), Lilian Weng (responsable des systèmes de sécurité), John Schulman (responsable de la science de l'alignement), Matt Knight (responsable de la sécurité) et Jakub Pachocki (scientifique en chef) - feront également partie du comité et l'entreprise a déclaré qu'elle « retiendra et consultera d'autres experts en matière de sûreté, de sécurité et de technologie » pour soutenir le travail.

La première tâche du comité consistera à examiner et à développer les processus et les garanties de l'entreprise au cours des 90 prochains jours, après quoi il fera part de ses recommandations à l'ensemble du conseil d'administration.

Alors qu'OpenAI forme son nouveau modèle, son nouveau comité de sûreté et de sécurité s'efforcera d'affiner les politiques et les processus de protection de la technologie, a indiqué l'entreprise.

Au début du mois, OpenAI a annoncé qu'Ilya Sutskever, cofondateur et l'un des responsables de ses efforts en matière de sécurité, quittait l'entreprise. Ce départ a suscité des inquiétudes quant au fait qu'OpenAI ne s'attaquait pas suffisamment aux dangers posés par l'IA.

En novembre, le Dr Sutskever s'est joint à trois autres membres du conseil d'administration pour écarter Altman d'OpenAI, estimant qu'on ne pouvait plus lui faire confiance dans le cadre du projet de l'entreprise visant à créer une intelligence artificielle générale pour le bien de l'humanité. Après une campagne de lobbying menée par les alliés d'Altman, ce dernier a été rétabli dans ses fonctions cinq jours plus tard et a depuis réaffirmé son contrôle sur l'entreprise.

Sutskever a dirigé ce que l'OpenAI a appelé son équipe « Superalignment », qui a étudié les moyens de garantir que les futurs modèles d'IA ne soient pas nuisibles. Comme d'autres dans ce domaine, il était de plus en plus préoccupé par le fait que l'I.A. représentait une menace pour l'humanité.

Jan Leike, qui dirigeait l'équipe Superalignment avec le Dr Sutskever, a démissionné de l'entreprise ce mois-ci, laissant planer le doute sur l'avenir de l'équipe.

OpenAI a intégré ses recherches sur la sécurité à long terme dans ses efforts plus vastes visant à garantir la sécurité de ses technologies. Ces travaux seront dirigés par John Schulman, un autre cofondateur, qui dirigeait auparavant l'équipe à l'origine de ChatGPT. Le nouveau comité de sécurité supervisera les recherches de Schulman et fournira des conseils sur la manière dont l'entreprise abordera les risques technologiques.


Le développement de GPT-5 ?

L'entreprise n'a pas explicitement déclaré qu'il s'agissait du nom du modèle qu'elle forme actuellement. Jusqu'à présent, OpenAI a suivi une séquence de dénomination claire pour ses modèles fondamentaux sous la forme de variations numériquement croissantes de GPT. Son dernier modèle fondateur, qui alimente notamment ChatGPT, est GPT-4, de sorte que son prochain modèle phare devrait prendre la forme de GPT-5. On s'attend à ce qu'OpenAI publie une mise à jour majeure sous la forme de GPT-5 dans les mois à venir, en particulier face à la concurrence de plus en plus intense de modèles rivaux tels que le Llama 3 de Meta, le Gemini de Google et le Claude 3 d'Anthropic.

Bien qu'elle soit « fière de construire et de diffuser des modèles qui sont à la pointe de l'industrie en termes de capacités et de sécurité », OpenAI a déclaré qu'elle souhaitait « un débat solide à ce moment important ».

OpenAI n'a pas indiqué quand ce modèle serait publié. La formation des systèmes d'IA peut prendre des mois, voire des années. L'entreprise a récemment publié une mise à jour de GPT-4, le GPT-4o, pour alimenter son produit phare, ChatGPT, et introduire de nouvelles fonctionnalités telles que le mode vocal, qui lui permettra d'agir en tant qu'assistant numérique comme Alexa d'Amazon ou Siri d'Apple. L'entreprise a déjà été critiquée pour avoir utilisé une voix ressemblant à celle de l'actrice Scarlett Johansson pour l'un de ses assistants virtuels.

Plusieurs zones d'ombre

Bien qu'elle semble transparente à première vue, il y a beaucoup d'ambiguïté quant à la volonté d'OpenAI de partager ce que dit son nouveau comité. OpenAI a déclaré qu'elle « partagera publiquement une mise à jour des recommandations adoptées d'une manière compatible avec la sûreté et la sécurité » une fois que le comité aura présenté son rapport au conseil d'administration, mais elle n'a pas précisé quand elle le ferait après la période initiale de 90 jours.

La formulation de l'entreprise est également limitée au partage des recommandations qu'elle choisit d'adopter et il n'est pas clair si l'entreprise partagera le rapport complet ou les recommandations du comité, en particulier s'ils sont en contradiction avec ce qu'elle décide de mettre en œuvre ou non.

L'entreprise et le comité sont susceptibles de faire l'objet d'un examen minutieux de la part de la communauté de la sécurité de l'IA, notamment en raison de l'engagement déclaré d'OpenAI en faveur de la sécurité, de la division entre les directeurs concernant son approche de la sécurité et des critiques récentes remettant en cause l'engagement d'anciens membres du personnel, ainsi que du départ de plusieurs responsables clés de la sécurité au sein de l'entreprise.

Source : OpenAI

Et vous ?

Quelles applications concrètes voyez-vous pour ce nouveau modèle d’IA ?
Quels sont les avantages et les inconvénients potentiels de l’automatisation accrue grâce à l’IA ? Quelles implications voyez-vous notamment sur l’emploi, la productivité et la qualité de vie ?
Comment pouvons-nous garantir que l’IA est utilisée de manière éthique et responsable ? Partagez vos idées sur la régulation, la transparence et la surveillance de l’IA.
Quelles sont vos préoccupations concernant la sécurité et la confidentialité des données dans un monde où l’IA est omniprésente ? Cela peut inclure des discussions sur la vie privée, la surveillance et la protection des informations sensibles.
Pensez-vous que l’IA pourrait révolutionner le travail à distance et le mode de vie des nomades numériques ? Explorez l’impact potentiel de l’IA sur la mobilité professionnelle et la flexibilité du travail.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 03/06/2024 à 12:03
Citation Envoyé par Jules34 Voir le message
C'est hallucinant non ?P
Ben, non.

Le monsieur prépare juste sa défense quand il finira devant un tribunal parce que son "IA machin" a entrainé des catastrophes.

Rappelez-vous du charmant fondateur de Facebook Mark Zuckerberg mis en accusation par des sénateurs lors d'auditions organisées par les autorités américaines: Il a beaucoup pleuré, a dit qu'il ne savait pas et... s'est excusé platement de ne pas avoir fait plus pour éviter les dérives...

Et après? Ben rien! Il a déposé sa cravate et son costard (cela servira pour les prochaines auditions), il a remis son jeans et son T-shirt sale puis a continué comme avant sa vie de milliardaire
5  0 
Avatar de Jules34
Membre chevronné https://www.developpez.com
Le 03/06/2024 à 9:50
C'est hallucinant non ? C'est comme si le Président de Ferrrari expliquait calmement qu'il ne savait même plus comment ses voitures avancent mais que c'est pas grave tant qu'elles avancent !

Je caricature mais c'est un peu flippant quand même.

Et je pense tout de suite au début de l'IA, comme le walk out d'amazon, qui en fait sont juste des milliers de travailleurs sous payés en Inde, donc effectivement vu sous cet angle c'est mieux si le PDG dit qu'il sait même plus comment ça fonctionne, il risque moins gros
1  0 
Avatar de Fagus
Membre expert https://www.developpez.com
Le 08/06/2024 à 14:30
Cédric Villani (https://www.thinkerview.com/justine-...ouveau-maitre/) dit que c'est un des cas de l'histoire où on arrive de manière imprévue à de très bons résultats empiriquement alors même que la théorie est en retard sur la pratique.
0  0 
Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 05/06/2024 à 17:27
Ça ne m'étonne même pas !

Vous avez déjà amené une Renault en panne dans un garage Renault ?
Eux aussi ne comprennent pas comment ça marche une Renault !!!
0  1