La génération automatique de texte (GAT) ou Natural Langage Generation (NLG) est un processus logiciel qui transforme des données structurées en langage naturel. Le générateur de texte le plus connu est le GPT-3 d'OpenAI, qui a récemment annoncé qu'il est utilisé dans plus de 300 applications, par des « dizaines de milliers » de développeurs et qu'il produit 4,5 milliards de mots par jour, avec une précision de 91 %.
« Neuf mois après le lancement de notre premier produit commercial, l'API OpenAI, plus de 300 applications utilisent désormais GPT-3, et des dizaines de milliers de développeurs du monde entier construisent sur notre plateforme. Nous générons actuellement en moyenne 4,5 milliards de mots par jour et nous continuons à faire augmenter le trafic de production », a déclaré OpenAI.
GPT-3 est un modèle de langage autorégressif qui utilise l'apprentissage profond pour produire des textes similaires à ceux des humains. Il s'agit du modèle de prédiction du langage de troisième génération de la série GPT-n créé par OpenAI, un laboratoire de recherche en intelligence artificielle basé à San Francisco et composé de la société à but lucratif OpenAI LP et de sa société mère, la société à but non lucratif OpenAI Inc.
À partir de n'importe quelle invite textuelle, comme une expression ou une phrase, GPT-3 renvoie un complément de texte en langage naturel. Les développeurs peuvent "programmer" GPT-3 en lui montrant seulement quelques exemples ou "invites". « Nous avons conçu l'API pour qu'elle soit à la fois simple à utiliser par tout le monde et suffisamment flexible pour rendre les équipes d'apprentissage automatique plus productives », souligne OpenAI. À ce jour, plus de 300 applications utilisent GPT-3 dans diverses catégories et industries, de la productivité à l'éducation en passant par la créativité et les jeux. Ces applications utilisent les diverses capacités de GPT-3. Voici, ci-dessous, quelques-unes de ces applications :
Viable aide les entreprises à mieux comprendre leurs clients en utilisant GPT-3 pour fournir des informations utiles à partir des commentaires des clients dans des résumés faciles à comprendre. À l'aide de GPT-3, Viable identifie les thèmes, les émotions et le sentiment à partir des sondages, des journaux de clavardage en direct, des commentaires et plus encore. Il extrait ensuite des informations de ces commentaires et fournit un résumé en quelques secondes.
Par exemple, à la question, qu'est-ce qui frustre nos clients dans le processus de paiement ? Viable peut fournir l'information suivante : « les clients sont frustrés par le processus de paiement, car il est trop long à charger. Ils veulent également un moyen de modifier leur adresse lors du passage à la caisse et d'enregistrer plusieurs méthodes de paiement ». « La capacité de GPT-3 à identifier des thèmes à partir du langage naturel et à générer des résumés permet à Viable de donner aux équipes chargées des produits, de l'expérience client et du marketing dans les entreprises de tous les secteurs une meilleure compréhension des désirs et des besoins de leurs clients », a déclaré Daniel Erickson, PDG de Viable.
Fable Studio crée un nouveau genre d'histoires interactives et utilise GPT-3 pour aider à alimenter leurs « êtres virtuels » axés sur l'histoire. Lucy, le héros de Neil Gaiman et Dave McKean's Wolves in the Walls, qui a été adaptée par Fable en une expérience VR primée aux Emmy Awards, peut avoir des conversations naturelles avec les gens grâce aux dialogues générés par GPT-3. Lucy a été invitée au festival du film Sundance 2021 et a présenté son propre film, Dracula. « GPT-3 nous a donné la possibilité de donner vie à nos personnages, a déclaré Edward Saatchi, PDG de Fable Studio. Nous sommes ravis de combiner la vision d'un artiste, l'IA et l'intelligence émotionnelle pour créer des récits puissants, et nous sommes convaincus qu'un jour, tout le monde connaîtra un être virtuel. »
Algolia utilise GPT-3 dans son produit Algolia Answers pour offrir à ses clients une recherche sémantique pertinente et ultrarapide. Lorsque l'API OpenAI a été lancée, Algolia s'est associée à OpenAI pour intégrer GPT-3 à sa technologie de recherche avancée afin de créer son nouveau produit Answers qui comprend mieux les questions des clients et les connecte à la partie spécifique du contenu qui répond à leurs questions. Algolia Answers aide les éditeurs et les services d'assistance à la clientèle à poser des questions en langage naturel et à trouver des réponses non triviales. Après avoir effectué des tests de GPT-3 sur 2,1 millions d'articles d'actualité, Algolia a obtenu une précision de 91 % ou mieux et Algolia a pu répondre avec précision à des questions complexes en langage naturel quatre fois plus souvent que BERT.
« Nous avons eu d'excellents résultats avec Algolia Answers sur des questions auxquelles il est difficile de répondre avec une recherche textuelle », a déclaré Peter Buffington, chef de produit chez ABC Australie. « Algolia Answers a été capable de renvoyer un contenu très pertinent, toujours d'actualité, issu de nos archives d'actualités ». « GPT-3 permet à Algolia de répondre à des requêtes plus complexes que jamais avec notre produit Algolia Answers, en identifiant des informations contextuelles plus approfondies pour améliorer la qualité des résultats et les délivrer en quelques secondes », a déclaré Dustin Coates, responsable produit et GTM chez Algolia.
OpenAI a conclu un accord d'exclusivité avec Microsoft qui donne au géant de la technologie un accès unique au code sous-jacent du programme, mais toute entreprise peut demander l'accès à l'API de GPT-3 et construire des services par-dessus. Rappelons que Microsoft a annoncé le mois dernier qu’elle prévoyait d'ajouter la fonction de prédictions de texte à son logiciel de traitement de texte en mars. Elle fonctionnera de la même manière que l'option Smart Compose de Google Docs ou les suggestions de texte sur certains claviers de smartphones. La nouvelle fonctionnalité utilisera le Machine Learning pour prédire les mots qui devraient apparaître dans une phrase. Pour faciliter le travail des utilisateurs, Word mettra en évidence les prédictions grisées lorsqu'ils rédigent un document. Ils pourront ensuite accepter les suggestions en appuyant sur la touche Tab ou les rejeter en appuyant sur Echap. Les prédictions de texte pourront être complètement désactivées par les utilisateurs de Word.
« Pour moi, et pour d'autres innovateurs motivés par leur mission, OpenAI nous a donné l'outil dont nous avons finalement besoin pour apporter des transformations dans la communauté. Avec le traitement du langage naturel, l'expérience technique n'est plus un obstacle et nous pouvons vraiment nous concentrer sur la résolution des problèmes du monde réel », a déclaré Abran Maldonado, Cofondateur de Create Labs au sujet de GPT-3. « Dans mon travail avec de nombreux développeurs débutants, ceux qui réussissent le mieux à construire avec GPT-3 sont de grands communicateurs, car ils sont capables de débloquer les nuances de la conception rapide », a-t-il ajouté.
Pour Natalie Pistunovich, Lead Developer Advocate chez Aerospike et fondatrice de Women Techmakers Berlin, la programmation avec GPT-3 peut ressembler à un processus beaucoup plus créatif par rapport au codage traditionnel en raison des invites en langage naturel. « Je pense que l'IA sera intégrée dans chaque produit à l'avenir, et c’est un plaisir de travailler avec des développeurs de tous niveaux d'expérience du monde entier qui créent des applications innovantes grâce à l'API ».
L’enthousiasme que suscite GPT-3 n’est pas partagé par tout le monde. Certains analystes pensent que l’on devrait s’inquiéter de la qualité des résultats fournis par les systèmes de génération de texte. Pour ces derniers, les générateurs de texte ont la capacité d'absorber et d'amplifier des préjugés dangereux.
Dans le domaine de la santé par exemple, Nabla, une startup française qui a conçu un chatbot médical basé sur GPT-3 d’OpenAI, a déclaré que GPT-3 n’est pas encore aussi bon que la recherche sur Google. Les tests réalisés par Nabla ont permis d’observer que pour la recherche d’informations scientifique spécifique, les posologies des médicaments ou les aides à la prescription, GPT-3 n'est pas assez stable pour être utilisé en toute sécurité comme un outil d'aide fiable pour les médecins.
« Il n'a tout simplement pas été conçu pour donner des conseils médicaux », a déclaré l’équipe Nabla. « En raison de la façon dont GPT-3 a été conçu, il manque l'expertise scientifique et médicale qui le rendrait utile pour le soutien au diagnostic, la documentation médicale, la recommandation de traitement ou toute question médicale », a ajouté l'équipe Nabla dans un rapport sur ses expériences. « Oui, GPT-3 peut avoir raison dans ses réponses, mais il peut aussi être très mauvais, et cette incohérence n'est tout simplement pas viable dans le domaine des soins de santé ».
Lors des tests chatbot médical construit à l'aide de GPT-3, le modèle a répondu à un patient "suicidaire" en l'encourageant à se suicider. Selon Nabla, le modèle d'OpenAI, créé à l’origine comme un générateur de texte à usage général, est trop risqué pour être utilisé dans le domaine de la santé.
Source : OpenAI
Et vous ?
Quel est votre avis sur le sujet ?
Voir aussi :
Open AI présente DALL-E (comme GPT-3), un modèle qui crée des images à partir de texte, pour un large éventail de concepts exprimables en langage naturel
Un faux blog d'un lycéen généré par GPT-3, l'IA de traitement du langage naturel d'OpenAI, a trompé des dizaines de milliers de personnes
Open AI propose en bêta privée son modèle de traitement du langage naturel GPT-3, ses applications vont de la génération de texte cohérent à la génération de code en passant par la création d'apps
Un chatbot médical GPT-3 d'OpenAI serait-il une bonne idée ? Il a dit à un patient simulé de se suicider, lors d'un test réalisé par Nabla
GPT-3, le système de génération de texte d'OpenAI, produit désormais 4,5 milliards de mots par jour
Avec une précision de 91 %
GPT-3, le système de génération de texte d'OpenAI, produit désormais 4,5 milliards de mots par jour
Avec une précision de 91 %
Le , par Bruno
Une erreur dans cette actualité ? Signalez-nous-la !