OpenAI est un laboratoire de recherche en intelligence artificielle (IA) composé de la société à but lucratif OpenAI LP et de sa société mère, la société à but non lucratif OpenAI Inc. L'entreprise, considérée comme un concurrent de DeepMind (entreprise spécialisée dans l'intelligence artificielle appartenant à Google), mène des recherches dans le domaine de l'IA avec l'objectif déclaré de promouvoir et de développer une IA conviviale d'une manière qui profite à l'humanité dans son ensemble.
OpenAI a été fondé à San Francisco fin 2015 par Elon Musk, Sam Altman et d'autres personnes, qui ont collectivement promis 1 milliard de dollars pour le projet. Musk a démissionné du conseil d'administration en février 2018, mais est resté un donateur. En 2019, OpenAI LP a reçu un investissement de 1 milliard de dollars de la part de Microsoft.
Les améliorations apportées à l’API OpenAI au cours de l'année écoulée comprennent les modèles de la série Instruct qui respectent mieux les instructions humaines, des points de terminaison spécialisés pour des réponses plus véridiques aux questions, et un filtre de contenu gratuit pour aider les développeurs à limiter les abus. « Notre travail nous permet également d'examiner les applications avant qu'elles ne soient mises en ligne, de surveiller les utilisations abusives, d'aider les développeurs à mesure que leur produit évolue et de mieux comprendre les effets de cette technologie », souligne l’entreprise.
Les modèles de la série Instruct
Selon OpenAI, les modèles de la série Instruct respectent mieux les instructions humaines et sont spécialisés pour des réponses plus véridiques aux questions. Les modèles Instruct partagent la capacité des modèles GPT-3 de base (comprendre et à générer du langage naturel), également meilleurs pour comprendre et suivre les instructions. « Il suffit de dire au modèle ce que vous voulez qu'il fasse, et il fera de son mieux pour suivre les instructions. Il s'agit d'une avancée importante dans notre objectif de construire des modèles sûrs et conformes aux intérêts humains », déclare OpenAI.
OpenAI propose actuellement deux modèles d'instruction, davinci-instruct-beta et curie-instruct-beta. Pour la plupart des cas d'utilisation, ces modèles peuvent être utilisés en remplacement des modèles de base sans aucune modification supplémentaire. Parmi les autres changements, citons l'amélioration du Playground, qui facilite la création de prototypes avec les modèles, une bibliothèque d'exemples contenant des dizaines d'invites pour aider les développeurs à démarrer, et Codex, un nouveau modèle qui traduit le langage naturel en code.
Lorsque la série Instruct est utilisée, l’invite doit comporter des instructions rédigées dans un Anglais clair, comme si l’utilisateur donnait des instructions à un être humain pour qu'il effectue la tâche.
Prompt
Expliquez l'alunissage à un enfant de 6 ans en quelques phrases.
davinci
Expliquez la théorie de la gravité à un enfant de 6 ans. Expliquez la théorie de la relativité à un enfant de 6 ans en quelques phrases. Expliquez la théorie du big bang à un enfant de 6 ans. Expliquez l'évolution à un enfant de 6 ans.
instruct-davinci
Des gens sont allés sur la Lune, ils ont pris des photos de ce qu'ils ont vu et les ont renvoyées sur terre pour que nous puissions tous les voir.
Des dizaines de milliers de développeurs tirent déjà parti des modèles d'IA grâce à cette plateforme. En ouvrant l'accès à ces modèles via une API facile à utiliser, davantage de développeurs trouveront des moyens créatifs d'appliquer l'IA à un grand nombre d'applications utiles et de problèmes ouverts.
Pour garantir que les applications soutenues par l'API sont construites de manière responsable, OpenAI s’engage à fournir des outils et à aider les développeurs à utiliser les meilleures pratiques afin qu'ils puissent mettre leurs applications en production rapidement et en toute sécurité. « À mesure que nos systèmes évoluent et que nous nous efforçons d'améliorer les capacités de nos protections, nous prévoyons de continuer à rationaliser le processus pour les développeurs, à affiner nos directives d'utilisation et à autoriser encore plus de cas d'utilisation au fil du temps », indique OpenAI.
Pour aider les développeurs à s'assurer que leurs applications sont utilisées aux fins prévues, à prévenir les abus potentiels et à respecter les directives en matière de contenu, OpenAI propose un filtre de contenu gratuit et interdit certains types de contenus sur l’API OpenAI, comme les contenus pour adultes, pour lesquels notre système n'est pas actuellement en mesure de distinguer de manière fiable les utilisations nuisibles des utilisations acceptables.
« Nous sommes ravis d'avoir mis en place les garanties nécessaires pour ouvrir les GPT-3 à davantage de développeurs. Au fur et à mesure de l'amélioration de nos garanties, nous élargirons la manière dont l'API peut être utilisée tout en améliorant encore l'expérience de nos utilisateurs », souligne OpenAI.
Les qualités présentées par OpenAI ne font cependant pas l’unanimité. Pour certains, les promesses autour de l’IA ne sont que des leurres. « C'est vraiment étrange de voir à quel point l'IA peut faire des promesses infondées comme celle de réparer Internet en 24 heures. Je me demande s'il y a des obligations légales liées à ces promesses », s’interroge un internaute. « Oui, j'ai toujours été impressionné par la capacité de GPT3 à donner des réponses convaincantes, mais je n'ai jamais vu personne montrer comment l'amener à donner des réponses véridiques et informatives tout en se comportant comme un chatbot », ajoute l’internaute.
Rappelons qu’en octobre 202, un chatbot médical GPT-3 d'OpenAI a dit à un patient simulé de se suicider. Le premier test de Nabla a montré que GPT-3 semblait fonctionner pour des tâches administratives de base telles que la prise de rendez-vous, mais en creusant un peu plus loin, il a découvert que le modèle n'avait pas une compréhension claire du temps ni une logique appropriée. En outre, il a aussi découvert que sa mémoire est aussi parfois défaillante, par exemple pour la prise de rendez-vous. Dans une discussion, le modèle a négligé la contrainte initiale de 18 heures imposée par le patient, car GPT-3 suggère de réserver pour 19 heures après quelques messages.
Nabla, est la startup française ayant conçu un chatbot médical basé sur GPT-3 d’OpenAI, qui est actuellement le plus gros modèle de langage jamais entraîné, avec environ 175 milliards de paramètres, pour fournir des conseils aux patients. Lors des tests, Nabla a pu observer quelques limites de GPT-3 et le chabot a même conseillé à un patient simulé de se suicider.
Malgré cela, OpenAI a annoncé « en mars de cette année que GPT-3, le système de génération de texte d'OpenAI, produit désormais 4,5 milliards de mots par jour avec une précision de 91 %. « Neuf mois après le lancement de notre premier produit commercial, l'API OpenAI, plus de 300 applications utilisent désormais GPT-3, et des dizaines de milliers de développeurs du monde entier construisent sur notre plateforme. Nous générons actuellement en moyenne 4,5 milliards de mots par jour et nous continuons à faire augmenter le trafic de production », a déclaré OpenAI.
Source : OpenAI
Et vous ?
Que pensez-vous de l'IA en général et de GPT-3 en particulier ?
Croyez-vous aux promesses annoncées par OpenAI ?
Voir aussi
Microsoft crée un autocompléteur de code à l'aide de GPT-3, le système de génération de texte d'OpenAI, pour combler le manque de développeurs dans le monde
Un chatbot médical GPT-3 d'OpenAI serait-il une bonne idée ? Il a dit à un patient simulé de se suicider, lors d'un test réalisé par Nabla
GPT-3, le système de génération de texte d'OpenAI, produit désormais 4,5 milliards de mots par jour, avec une précision de 91 %
Open AI présente DALL-E (comme GPT-3), un modèle qui crée des images à partir de texte, pour un large éventail de concepts exprimables en langage naturel