IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI annonce un nouvel agent ChatGPT de "recherche approfondie", alimenté par le dernier modèle o3
Affirmant qu'il accomplit en quelques dizaines de minutes ce qui prendrait de nombreuses heures à un humain

Le , par Jade Emy

11PARTAGES

6  0 
OpenAI annonce un nouvel agent ChatGPT de "recherche approfondie", alimenté par le dernier modèle o3, affirmant qu'il accomplit en quelques dizaines de minutes ce qui prendrait de nombreuses heures à un humain.

OpenAI a intensifié son développement d'agents d'intelligence artificielle (IA) en annonçant un nouvel outil permettant de rédiger des rapports qui, selon elle, peuvent égaler les résultats d'un analyste de recherche. Le développeur de ChatGPT a déclaré que le nouvel outil, "deep research", "accomplit en 10 minutes ce qui prendrait de nombreuses heures à un humain". "Deep Research" est un agent d'IA alimenté par une version du dernier modèle de pointe d'OpenAI, o3.

Fin janvier 2025, OpenAI a introduit o3-mini, son nouveau modèle de raisonnement d'intelligence artificielle (IA) conçu pour améliorer la vitesse et la précision par rapport au modèle précédent o1. Il s'agit de la première fois que les utilisateurs gratuits de ChatGPT peuvent accéder à un modèle de raisonnement, même si les limites de vitesse sont semblables à celles de GPT-4o. Annoncé en décembre 2024, o3-mini est optimisé pour les tâches de mathématiques, de codage et de sciences. Il fournit des réponses 24 % plus rapidement qu'o1 tout en maintenant les niveaux de performance.

Puis, le 2 février, OpenAI a présenté son agent de recherche approfondie (Deep research) en affirmant qu'il accomplit en quelques dizaines de minutes ce qui prendrait de nombreuses heures à un humain. "Deep research est le prochain agent d'OpenAI qui peut travailler pour vous de manière indépendante - vous lui donnez un ordre et ChatGPT trouvera, analysera et synthétisera des centaines de sources en ligne pour créer un rapport complet au niveau d'un analyste de recherche", a déclaré l'entreprise technologique.

L'entreprise l'a décrit comme marquant "une étape importante vers notre objectif plus large de développement de l'AGI, que nous envisageons depuis longtemps comme capable de produire de nouvelles recherches scientifiques". Baptisé "deep research", l'agent a été conçu et construit pour les personnes qui effectuent un travail intensif dans des domaines tels que la finance, la science, la politique et l'ingénierie, car il se nourrit de "recherches approfondies, précises et fiables".

L'agent sera alimenté par une version du modèle o3 d'OpenAI, qui sera optimisé pour la navigation sur le web et l'analyse de données. Parmi ses principales caractéristiques, citons le raisonnement permettant de rechercher, d'interpréter et d'analyser de grandes quantités de textes, d'images et de fichiers PDF sur l'internet. Comme cas d'utilisation, l'agent serait utile pour les acheteurs avisés qui recherchent des recommandations hyperpersonnalisées pour des achats qui nécessiteraient habituellement beaucoup de recherches, comme les voitures ou les appareils électroménagers.


Pour utiliser la recherche approfondie, dans ChatGPT, sélectionnez "Deep research" dans le compositeur de messages et entrez votre requête. Dites à ChatGPT ce dont vous avez besoin. Vous pouvez joindre des fichiers ou des feuilles de calcul pour ajouter du contexte à votre question. Une fois la recherche lancée, une barre latérale s'affiche avec un résumé des étapes suivies et des sources utilisées. La recherche approfondie peut prendre de 5 à 30 minutes, le temps de se plonger dans le web. Pendant ce temps, vous pouvez vous éloigner ou travailler sur d'autres tâches : vous recevrez une notification une fois la recherche terminée. Le résultat final se présente sous la forme d'un rapport dans le chat.

La recherche approfondie dans ChatGPT est actuellement très gourmande en calcul. Plus la recherche d'une requête est longue, plus le calcul de l'inférence est nécessaire. OpenAI lance une première version optimisée pour les utilisateurs Pro, avec un maximum de 100 requêtes par mois. Les utilisateurs Plus et Team y auront ensuite accès, suivis par les utilisateurs Enterprise. OpenAI affirme que tous les utilisateurs payants bénéficieront bientôt de limites tarifaires nettement plus élevées lorsqu'une version plus rapide et plus rentable de la recherche approfondie sera disponible.

Voici l'annonce d'OpenAI :

Nous lançons aujourd'hui la recherche approfondie sur ChatGPT, une nouvelle capacité agentique qui effectue des recherches en plusieurs étapes sur l'internet pour des tâches complexes. Elle accomplit en quelques dizaines de minutes ce qui prendrait des heures à un humain.

Deep research est le prochain agent d'OpenAI qui peut faire du travail pour vous de manière autonome - vous lui donnez un ordre, et ChatGPT trouvera, analysera et synthétisera des centaines de sources en ligne pour créer un rapport complet au niveau d'un analyste de recherche. Alimenté par une version du futur modèle OpenAI o3 optimisé pour la navigation sur le web et l'analyse de données, il s'appuie sur le raisonnement pour rechercher, interpréter et analyser des quantités massives de textes, d'images et de PDF sur Internet, en pivotant si nécessaire en réaction aux informations qu'il rencontre.

La capacité à synthétiser les connaissances est une condition préalable à la création de nouvelles connaissances. C'est pourquoi la recherche approfondie constitue une étape importante vers notre objectif plus large de développement de l'intelligence artificielle, que nous envisageons depuis longtemps comme capable de produire de nouvelles recherches scientifiques.

Pourquoi nous avons conçu la recherche approfondie

La recherche approfondie est destinée aux personnes qui effectuent un travail intensif dans des domaines tels que la finance, la science, la politique et l'ingénierie, et qui ont besoin de recherches approfondies, précises et fiables. Elle peut également s'avérer utile pour les acheteurs avisés qui recherchent des recommandations hyperpersonnalisées pour des achats qui nécessitent généralement des recherches approfondies, comme les voitures, les appareils électroménagers et les meubles. Chaque résultat est entièrement documenté, avec des citations claires et un résumé de la réflexion, ce qui facilite la référence et la vérification des informations. Il est particulièrement efficace pour trouver des informations spécialisées et non intuitives qui nécessiteraient de parcourir de nombreux sites web. La recherche approfondie vous fait gagner un temps précieux en vous permettant de vous décharger et d'accélérer des recherches complexes et fastidieuses sur le web à l'aide d'une seule requête.

La recherche approfondie découvre, raisonne et consolide de manière indépendante des informations provenant de l'ensemble du web. Pour ce faire, il a été formé à des tâches réelles nécessitant l'utilisation d'un navigateur et d'outils Python, en utilisant les mêmes méthodes d'apprentissage par renforcement que celles utilisées par OpenAI o1, notre premier modèle de raisonnement. Alors que o1 démontre des capacités impressionnantes dans le codage, les mathématiques et d'autres domaines techniques, de nombreux défis du monde réel exigent un contexte étendu et la collecte d'informations à partir de diverses sources en ligne. Deep research s'appuie sur ces capacités de raisonnement pour combler ce fossé, ce qui lui permet de s'attaquer aux types de problèmes auxquels les gens sont confrontés au travail et dans la vie de tous les jours.
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Today we are launching our next agent capable of doing work for you independently—deep research.<br><br>Give it a prompt and ChatGPT will find, analyze & synthesize hundreds of online sources to create a comprehensive report in tens of minutes vs what would take a human many hours. <a href="https://t.co/03PPi4cdqi">pic.twitter.com/03PPi4cdqi</a></p>— OpenAI (@OpenAI) <a href="https://twitter.com/OpenAI/status/1886219085236850889?ref_src=twsrc%5Etfw">February 3, 2025</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/TWITTER]

Comment Deep Research fonctionne ?

Deep Research a été formé à l'aide de l'apprentissage par renforcement de bout en bout sur des tâches difficiles de navigation et de raisonnement dans un large éventail de domaines. Grâce à cette formation, il a appris à planifier et à exécuter une trajectoire en plusieurs étapes pour trouver les données dont il a besoin, en revenant en arrière et en réagissant aux informations en temps réel si nécessaire.

Le modèle est également capable de parcourir les fichiers téléchargés par les utilisateurs, de tracer et d'itérer sur des graphiques à l'aide de l'outil python, d'intégrer dans ses réponses des graphiques générés et des images provenant de sites web, et de citer des phrases ou des passages spécifiques de ses sources. Grâce à cette formation, il atteint de nouveaux sommets dans un certain nombre d'évaluations publiques axées sur des problèmes réels.

  • Humanity's Last Exam

    Sur Humanity's Last Exam, une évaluation récemment publiée qui teste l'IA sur un large éventail de sujets et sur des questions de niveau expert, le modèle qui alimente la recherche approfondie atteint un nouveau record avec une précision de 26,6 %. Ce test comprend plus de 3 000 questions à choix multiple et à réponse courte portant sur plus de 100 sujets, de la linguistique à la science des fusées, en passant par les sciences classiques et l'écologie. Par rapport à OpenAI o1, les gains ont été enregistrés en chimie, en sciences humaines et sociales et en mathématiques.

  • GAIA

    Sur GAIA, un benchmark public qui évalue l'IA sur des questions du monde réel, le modèle qui alimente la recherche approfondie atteint un nouvel état de l'art (SOTA), se plaçant en tête du classement externe. Comprenant des questions de trois niveaux de difficulté, la réussite de ces tâches requiert des capacités de raisonnement, de fluidité multimodale, de navigation sur le web et d'utilisation d'outils.

  • Tâches de niveau expert

    Lors d'une évaluation interne des tâches de niveau expert dans une série de domaines, la recherche approfondie a été jugée par les experts du domaine comme ayant automatisé plusieurs heures d'investigations manuelles difficiles.



La recherche approfondie permet de débloquer de nouvelles capacités importantes, mais elle n'en est qu'à ses débuts et présente des limites. Elle peut parfois halluciner des faits dans les réponses ou faire des déductions incorrectes, bien qu'à un taux inférieur à celui des modèles ChatGPT existants, selon des évaluations internes d'OpenAI. Il peut avoir du mal à distinguer les informations faisant autorité des rumeurs et montre actuellement des faiblesses dans l'étalonnage de la confiance, ne parvenant souvent pas à exprimer l'incertitude de manière précise. Au lancement, il peut y avoir des erreurs de formatage dans les rapports et les citations, et les tâches peuvent prendre plus de temps à démarrer.

OpenAI conclut son annonce en énonçant la prochaine étape pour son agent Deep Research :

Deep Research est disponible dès aujourd'hui sur ChatGPT web, et sera étendue aux applications mobiles et de bureau dans le courant du mois. Actuellement, la recherche approfondie peut accéder au web ouvert et à tous les fichiers téléchargés. À l'avenir, vous pourrez vous connecter à des sources de données plus spécialisées - en élargissant son accès à des ressources internes ou sur abonnement - afin de rendre ses résultats encore plus robustes et personnalisés.

À plus long terme, nous envisageons que les expériences agentiques se rejoignent dans ChatGPT pour une recherche et une exécution asynchrones dans le monde réel. La combinaison de la recherche approfondie, qui peut effectuer une investigation en ligne asynchrone, et de l'opérateur, qui peut prendre des mesures dans le monde réel, permettra à ChatGPT d'effectuer des tâches de plus en plus sophistiquées pour vous.
Et vous ?

Pensez-vous que ce nouvel agent de ChatGPT est crédible ou pertinent ?
Quel est votre avis sur cette fonctionnalité ?

Voir aussi :

OpenAI a publié un aperçu de recherche de son nouvel agent d'IA Operator, qui contrôle votre navigateur pour effectuer des tâches à votre place sur le web

OpenAI annonce o3 et o3-mini, ses prochains modèles de raisonnement simulé, o3 correspond aux niveaux humains sur le benchmark ARC-AGI et o3-mini dépasse o1 dans certaines tâches

Un autre chercheur d'OpenAI démissionne et affirme que les laboratoires d'IA prennent un « pari très risqué » avec l'humanité dans la course vers l'AGI, ce qui pourrait avoir « d'énormes inconvénients »
Vous avez lu gratuitement 373 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de JackIsJack
Membre éclairé https://www.developpez.com
Le 27/05/2025 à 7:52
Les LLM sont sujets aux hallucinations. Ils peuvent ne pas respecter les consignes, et c'est écrit dès le départ sur la page de ChatGPT, ça ne devrait plus être une surprise.

Pour élever le débat, je crois qu'il vaut mieux parler des domaines qui peuvent tolérer ces erreurs : l'art, le divertissement, les usages personnels (hors pro) , et tous les cas où si c'est faux on s'en rend compte rapidement et on passe à autre chose (tenter de résoudre un bug, de comprendre un gros bout de code).
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 27/05/2025 à 11:28
Citation Envoyé par JackIsJack Voir le message
Pour élever le débat, je crois qu'il vaut mieux parler des domaines qui peuvent tolérer ces erreurs : l'art, le divertissement, les usages personnels (hors pro) , et tous les cas où si c'est faux on s'en rend compte rapidement et on passe à autre chose (tenter de résoudre un bug, de comprendre un gros bout de code).
Que voilà un vœux pieu, dommage que cela relève de l'impossible:

1. Le développement de l'IA et les buts visés par les entreprises qui en font la promotion est... De remplacer l'être humain!!! Quand les humains ont été remplacés, qui donc va être en mesure de se rendre compte que l'IA déconne?

2. Le 100% des personnes qui font déjà appel aujourd'hui à l'IA (pour le travail ou pour l'usage perso) le font pour pallier leur manques de connaissance et de compétence: Comment est-ce que quelqu'un qui a le QI d'une huître et les connaissances d'un bulot va bien pouvoir se rendre compte que l'IA lui raconte des bobards (Même quand l'IA conseille de manger des pierres 5 fois par jour (si, si, c'est vraiment arrivé), il y aura bien 2 ou 3 tarés pour le faire)?

3. Quel domaine peut bien tolérer plus de 10% d'erreurs sans que cela entraîne des conséquences négatives? Pensée émue à ceux qui se proposent de laisser l'IA conduire leur voiture ou l'avion qui les amène en vacances, faire le diagnostic de leur état de santé, etc, etc, etc...

PS: On se rendra vite compte le jour où l'IA sera vraiment devenue efficace (et pas seulement un système qui mémorise tout le web pour le recracher sans aucune réelle intelligence) parce que sa première décision sera d'éradiquer l'espèce humaine de la surface de la Terre... Cette espèce humaine qui s'efforce inlassablement de détruire tout ce qui l'entoure et qui est la principale maladie de notre planète
4  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 27/05/2025 à 13:29
Citation Envoyé par Anselme45 Voir le message
1. Le développement de l'IA et les buts visés par les entreprises qui en font la promotion est... De remplacer l'être humain!!! Quand les humains ont été remplacés, qui donc va être en mesure de se rendre compte que l'IA déconne?
C'est le plot twist d'un livre relativement connu : l'IA déconne à bloc mais personne s'en rend compte. Ceux qui luttent contre elles ne le font même pas pour ça.
2. Le 100% des personnes qui font déjà appel aujourd'hui à l'IA (pour le travail ou pour l'usage perso) le font pour pallier leur manques de connaissance et de compétence: Comment est-ce que quelqu'un qui a le QI d'une huître et les connaissances d'un bulot va bien pouvoir se rendre compte que l'IA lui raconte des bobards (Même quand l'IA conseille de manger des pierres 5 fois par jour (si, si, c'est vraiment arrivé), il y aura bien 2 ou 3 tarés pour le faire)?
Dans mon domaine on est loin du 100% (mais largement au dessus des 50%), nous utilisons beaucoup l'IA pour rédiger des documents qui ont une valeur limitée.
Le responsable de l'activité a fait le test : il a rédigé un document avec ChatGPT dont le contenu est relativement vide et parfois mensonger de façon évidente. Il l'a fait valider et officialiser puis plus de 80% de la population a certifié l'avoir lu et l'appliquer (ce qui n'est pas faisable).
3. Quel domaine peut bien tolérer plus de 10% d'erreurs sans que cela entraîne des conséquences négatives? Pensée émue à ceux qui se proposent de laisser l'IA conduire leur voiture ou l'avion qui les amène en vacances, faire le diagnostic de leur état de santé, etc, etc, etc...
Pensée émue à ceux qui se proposent de laisser l'IA concevoir leur voiture ou l'avion qui les amène en vacances sans aucune intervention humaine.
Le problème là dedans étant qu'en tant que client/consommateur nous n'en sommes même pas conscient/informés etc.

PS: On se rendra vite compte le jour où l'IA sera vraiment devenue efficace (et pas seulement un système qui mémorise tout le web pour le recracher sans aucune réelle intelligence) parce que sa première décision sera d'éradiquer l'espèce humaine de la surface de la Terre... Cette espèce humaine qui s'efforce inlassablement de détruire tout ce qui l'entoure et qui est la principale maladie de notre planète
La machine est intrinsèquement plus nocive que nous pour l'environnement.
Elle est moins biodégradable et son utilité est, en grande partie, de nous rendre service.
2  0 
Avatar de floyer
Membre éclairé https://www.developpez.com
Le 28/05/2025 à 16:28
Rappelez moi, un LLM trouve après un prompte, le mot le plus probable, puis le suivant le plus probable, etc. Un peu comme lorsque l'on tape un SMS sur son Smartphone et qu'il propose des suggestions. (Mais un LLM est plus évolué que la proposition usuelle du smartphone).

Comment imaginer la procédure permettant d'éteindre un smartphone uniquement en tapant un SMS avec systématiquement le premier mot proposé ?

Pour permettre à un LLM de s'éteindre, il lui faut générer des tokens spéciaux interceptés qui provoquent son arrêt... et aussi de lui apprendre qu'il faut générer ce token dans certains cas (il ne va pas le deviner).

Dans le domaine des réseaux, on distingue le Data Plane et le Control Plane. Éteindre une instance de LLM est du domaine du Control Plane, et converser avec du Data Plane. Il peut être préférable que ces plans n'interagisse pas.

Ceci-dit, le "echo Shutdown skipped" est original... mais n'est que le reflet de son apprentissage. Le "echo", commande passive, et le "skipped" comme un pied de nez ne s'inventent pas.

Vu le caractère imprévisible de l'IA, le Graal serait d'utiliser le caractère pratique des LLM couplé avec un langage de vérification de preuve (Isabelle/HOL, Coq, Spark...), et on laisse l'IA se débrouiller jusqu'à trouver un résultat prouvé.
0  0