IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI lance GPT-4o, un modèle plus rapide et gratuit pour tous les utilisateurs de ChatGPT.
L'entreprise fait une démo de son modèle qui « représente l'avenir de l'interaction entre nous et les machines »

Le , par Stéphane le calme

20PARTAGES

5  0 
OpenAI a annoncé lundi le lancement de son nouveau modèle phare d'intelligence artificielle, appelé GPT-4o, ainsi que des mises à jour comprenant un nouveau service desktop et des avancées dans ses capacités d'assistant vocal. Parmi les mises à jour dévoilées lundi par OpenAI figurent l'amélioration de la qualité et de la vitesse des capacités linguistiques internationales de ChatGPT, ainsi que la possibilité de télécharger des images, des documents audio et des textes afin que le modèle puisse les analyser. L'entreprise a indiqué qu'elle mettrait progressivement en place les fonctionnalités afin de s'assurer qu'elles sont utilisées en toute sécurité.

Mira Murati, directrice de la technologie, est apparue sur scène devant une foule enthousiaste dans les bureaux d'OpenAI, vantant le nouveau modèle comme un pas en avant dans le domaine de l'IA. Le nouveau modèle mettra le modèle d'IA GPT-4, plus rapide et plus précis, à la disposition des utilisateurs gratuits, alors qu'il était auparavant réservé aux clients payants.

Citation Envoyé par OpenAI
Au cours des deux dernières années, nous avons consacré beaucoup d'efforts à l'amélioration de l'efficacité à chaque couche de la pile. Le premier fruit de cette recherche est la mise à disposition d'un modèle de niveau GPT-4 à une échelle beaucoup plus large. Les capacités de GPT-4o seront déployées de manière itérative (avec un accès étendu à l'équipe rouge à partir d'aujourd'hui).

Les capacités de texte et d'image de GPT-4o commencent à être déployées aujourd'hui dans ChatGPT. Nous rendons GPT-4o disponible dans le niveau gratuit, et pour les utilisateurs Plus avec des limites de messages jusqu'à 5 fois plus élevées. Nous lancerons une nouvelle version du mode vocal avec GPT-4o en alpha dans ChatGPT Plus dans les semaines à venir.
« Nous envisageons l'avenir de l'interaction entre nous et les machines », a déclaré Murati. « Nous pensons que GPT-4o est en train de changer ce paradigme ».

L'événement comprenait également une démonstration en direct des nouvelles capacités vocales du modèle, avec deux responsables de recherche de l'OpenAI s'entretenant avec un modèle vocal d'IA. L'assistant vocal a généré une histoire à dormir debout sur l'amour et les robots, les chercheurs lui demandant de parler avec une variété d'émotions et d'inflexions vocales. Une autre démonstration a utilisé la fonction appareil photo d'un téléphone pour montrer au modèle d'IA une équation mathématique, puis le mode vocal de ChatGPT leur a expliqué comment la résoudre.

À un moment de la démonstration, un chercheur a demandé au modèle d'IA de lire l'expression de son visage et de juger ses émotions. L'assistant vocal de ChatGPT a estimé qu'il avait l'air « heureux et gai, avec un grand sourire et peut-être même une pointe d'excitation ».

« Quoi qu'il en soit, il semble que vous soyez de bonne humeur », a déclaré ChatGPT d'une voix féminine enjouée. « Voulez-vous partager la source de ces bonnes vibrations ? »


Pas de concurrent au moteur de recherche de Google... pour l'instant

Le PDG d'OpenAI, Sam Altman, a indiqué que le modèle est « nativement multimodal », ce qui signifie qu'il peut générer du contenu ou comprendre des commandes vocales, textuelles ou visuelles. Les développeurs qui souhaitent bricoler avec GPT-4o auront accès à l'API, qui est deux fois moins chère et deux fois plus rapide que GPT-4 Turbo, a ajouté Altman sur X.

De nouvelles fonctionnalités sont prévues pour le mode vocal de ChatGPT dans le cadre du nouveau modèle. L'application pourra agir comme un assistant vocal de type Her, répondant en temps réel et observant le monde qui vous entoure. Le mode vocal actuel est plus limité, il ne répond qu'à un seul message à la fois et ne travaille qu'avec ce qu'il peut entendre.

Altman s'est penché sur la trajectoire d'OpenAI dans un billet de blog publié à la suite de l'événement. Il a déclaré que la vision initiale de l'entreprise était de « créer toutes sortes d'avantages pour le monde », mais il a reconnu que cette vision avait changé. OpenAI a été critiquée pour ne pas avoir ouvert ses modèles d'IA avancés, et Altman semble dire que l'objectif de l'entreprise est désormais de mettre ces modèles à la disposition des développeurs par le biais d'API payantes et de laisser ces tiers se charger de la création. « Au lieu de cela, il semble maintenant que nous créerons l'IA et que d'autres personnes l'utiliseront pour créer toutes sortes de choses étonnantes dont nous bénéficierons tous ».

La semaine dernière, la rumeur voulait qu'OpenAI lance un produit de recherche qui concurrencerait Google, mais Reuters a rapporté que l'entreprise avait retardé la révélation de ce projet. Le PDG Sam Altman a nié que l'annonce de lundi concernait un moteur de recherche, mais a tweeté vendredi que « nous avons travaillé dur sur de nouvelles choses que nous pensons que les gens vont adorer ! »

Hormis quelques petits pépins ou réponses involontaires, la plupart des démonstrations se sont déroulées sans encombre et les fonctionnalités ont marché comme prévu. Bien que Murati ait déclaré qu'OpenAI prenait des mesures pour éviter que ses nouvelles capacités vocales ne soient utilisées à mauvais escient, l'événement n'a fourni que peu de détails sur la manière dont l'entreprise allait aborder les mesures de protection relatives à la reconnaissance faciale et à la génération audio.

Bien entendu, OpenAI a veillé à ce que ce lancement ait lieu juste avant Google I/O, la conférence phare du géant de la technologie, où l'on s'attend à voir le lancement de divers produits d'IA de l'équipe Gemini.


Présentation technique de GPT-4o

Le GPT-4o (« o » pour « omni ») est une étape vers une interaction homme-machine beaucoup plus naturelle. Il accepte en entrée toute combinaison de texte, de son et d'image et génère toute combinaison de texte, de son et d'image en sortie. Il peut répondre aux entrées audio en 232 millisecondes seulement, avec une moyenne de 320 millisecondes, ce qui est similaire au temps de réponse humain dans une conversation. Il égale les performances du GPT-4 Turbo pour les textes en anglais et en code, avec une amélioration significative pour les textes dans des langues autres que l'anglais, tout en étant beaucoup plus rapide et 50 % moins cher dans l'API. GPT-4o est particulièrement performant en matière de vision et de compréhension audio par rapport aux modèles existants.

Avant GPT-4o, vous pouviez utiliser le mode vocal pour parler à ChatGPT avec des temps de latence de 2,8 secondes (GPT-3.5) et de 5,4 secondes (GPT-4) en moyenne. Pour ce faire, le mode vocal est un pipeline composé de trois modèles distincts : un modèle simple transcrit l'audio en texte, GPT-3.5 ou GPT-4 prend du texte et en produit, et un troisième modèle simple reconvertit le texte en audio. Ce processus signifie que la principale source d'intelligence, GPT-4, perd beaucoup d'informations : elle ne peut pas observer directement le ton, les locuteurs multiples ou les bruits de fond, et elle ne peut pas restituer les rires, les chants ou exprimer des émotions.

Avec GPT-4o, nous avons formé un nouveau modèle unique de bout en bout pour le texte, la vision et l'audio, ce qui signifie que toutes les entrées et sorties sont traitées par le même réseau neuronal. GPT-4o étant notre premier modèle combinant toutes ces modalités, nous n'en sommes encore qu'au stade de l'exploration des capacités et des limites du modèle.

Évaluations du modèle

Sur la base de critères de référence traditionnels, GPT-4o atteint le niveau de performance de GPT-4 Turbo pour le texte, le raisonnement et l'intelligence de codage, tout en établissant de nouvelles références en matière de capacités multilingues, audio et visuelles.

Sécurité et limites du modèle

Le GPT-4o intègre la sécurité dès sa conception pour toutes les modalités, grâce à des techniques telles que le filtrage des données d'entraînement et l'affinement du comportement du modèle par le biais du post-entraînement. Nous avons également créé de nouveaux systèmes de sécurité pour fournir des garde-fous sur les sorties vocales.

Nous avons évalué le GPT-4o conformément à notre cadre de préparation et à nos engagements volontaires. Nos évaluations de la cybersécurité, du CBRN, de la persuasion et de l'autonomie du modèle montrent que le GPT-4o ne présente pas de risque supérieur au niveau moyen dans l'une ou l'autre de ces catégories. Cette évaluation a consisté à effectuer une série d'évaluations automatisées et humaines tout au long du processus de formation du modèle. Nous avons testé les versions du modèle avant et après l'atténuation des risques, en utilisant des ajustements et des messages-guides personnalisés, afin de mieux cerner les capacités du modèle.

Le GPT-4o a également fait l'objet d'une analyse approfondie avec plus de 70 experts externes dans des domaines tels que la psychologie sociale, les préjugés et l'équité, et la désinformation, afin d'identifier les risques introduits ou amplifiés par les modalités nouvellement ajoutées. Nous avons utilisé ces enseignements pour développer nos interventions de sécurité afin d'améliorer la sécurité de l'interaction avec le GPT-4o. Nous continuerons à atténuer les nouveaux risques au fur et à mesure de leur découverte.

Nous reconnaissons que les modalités audio du GPT-4o présentent une variété de nouveaux risques. Aujourd'hui, nous rendons publiques les entrées de texte et d'image et les sorties de texte. Au cours des semaines et des mois à venir, nous travaillerons sur l'infrastructure technique, la facilité d'utilisation par le biais d'une post-formation et la sécurité nécessaires à la diffusion des autres modalités. Par exemple, lors du lancement, les sorties audio seront limitées à une sélection de voix prédéfinies et respecteront nos politiques de sécurité existantes. Nous donnerons plus de détails sur l'ensemble des modalités du GPT-4o dans la prochaine carte du système.

Sources : OpenAI, Sam Altman

Et vous ?

Quelles applications innovantes imaginez-vous pour GPT-4o dans votre domaine professionnel ou personnel ?
Comment la gratuité de GPT-4o pourrait-elle influencer l’accessibilité et l’équité dans le domaine de l’intelligence artificielle ?
Quels sont les défis éthiques que vous pensez que OpenAI devrait considérer en rendant GPT-4o disponible pour tous ?
En quoi la capacité de GPT-4o à traiter divers types d’entrées, comme l’audio et la vision, change-t-elle votre perception de l’IA ?
Comment envisagez-vous que la rapidité de réponse de GPT-4o puisse transformer les interactions humain-machine ?
Quelles mesures de sécurité aimeriez-vous voir mises en place pour assurer une utilisation responsable de GPT-4o ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jules34
Membre émérite https://www.developpez.com
Le 14/05/2024 à 10:59
Citation Envoyé par _toma_ Voir le message
C'est nous qui nous sommes rendus esclaves de technologies abrutissantes et inutiles dont l'utilisation abusive a pour conséquence directe de, petit à petit, supprimer toute réflexion, tout esprit critique et toute satisfaction à réaliser une tâche longue ou complexe.

S'il y a 20 ans je ne comprenais pas la phrase "science sans conscience n'est que ruine de l'âme", je ne la comprends que trop bien aujourd'hui.
Entièrement d'accord avec vous !
1  0 
Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 14/08/2024 à 12:20
Tous les outils sur cette planète peuvent être mal utilisés mais il y en a toujours qui vont se plaindre que l'IA puisse être mal utilisée. La bêtise en devient drole, mais c'est triste quelque part.
1  0 
Avatar de Eye_Py_Ros
Membre du Club https://www.developpez.com
Le 21/05/2024 à 13:49
concernant le mauvais coté de l'IA. Nous risquons une crise identitaire.
La réplication, l'imitation en masse et le non respect de nos identités, risque de mettre à mal la société, une "crise de l'identité" ou les personnes seraient de moins en moins respecté.
Et dont le capitalisme userait, serait plus "violent" en ne respectant plus l'individu car copiable grâce à un genre de photocopieuse magique.
0  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 26/05/2024 à 15:09
Mon commentaire sera peut-être hors-sujet mais Open AI comme Copilot de MS a pompé des données pour retenir des idées, des codes sources, des puces de nouvelles générations et s'est affranchi des lois sur le copyright et les brevets matériels et logiciels au détriment des utilisateurs et professionnels. Je confirme donc qu'ils sont attaquables en procès pour le cas de Scarlett Johansson qui a vu sa voix devenir un fake pour les utilisateurs : Au minimum Open AI et MS ne respectent rien, pas même leur propres règles et leur propre parole. Peut-être Google aussi mais j'ai plus confiance en Google qu'en MS et Open AI bien qu'il faille toujours se méfier.
0  0 
Avatar de JackIsJack
Membre éclairé https://www.developpez.com
Le 03/08/2024 à 7:19
Là c'est un autre level sur l'impact sociétal possible...
0  0 
Avatar de Chouteau
Membre régulier https://www.developpez.com
Le 05/08/2024 à 13:24
Meme si a priori c'est une technologie spectaculaire, je ne peux m'empêcher de penser que les utilisations malveillantes qui vont en découler vont largement dépasser tout ce que l'on a pu connaitre.
Et que dire d'un robot qui rigole...
0  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 21/10/2024 à 11:02
Elle doit gérer les tensions entre sa mission déclarée, qui est de veiller à ce que l'intelligence artificielle générale profite à l'humanité, et son orientation de plus en plus commerciale.


C'est comme l'infomercial de Bill Gates sur les IPN, le loup déguisé en agneau.

Alors que le ChatGPT s'intègre de plus en plus profondément dans le travail et la vie de tous les jours
Dans la tête des PDG peut-être...
0  0