IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le modèle de langage d'IA GPT-3 peut générer une désinformation plus persuasive que les humains
En particulier lorsqu'il est confronté à des données ambiguës ou incomplètes, selon des chercheurs

Le , par Anthony

1PARTAGES

4  0 
Dans le cadre d'une étude novatrice, des chercheurs ont découvert que le prototype de langage d'OpenAI, GPT-3, possède une maîtrise exceptionnelle de l'information qui surpasse les capacités humaines. Cette découverte ouvre de nouvelles perspectives pour l'avenir de l'IA et de la classification des langages naturels.

GPT-3 a fait l'objet d'une attention considérable depuis son lancement il y a trois ans. Avec ses 175 milliards de paramètres, il est aujourd'hui le plus grand prototype jamais réalisé. Sa taille immense et ses données d'entraînement l'autorisent à induire des réponses remarquablement lisibles et adaptées au contexte, ce qui en fait un instrument inestimable pour l'immense étendue des applications.

L'étude, menée par une équipe de chercheurs d'un institut de recherche en IA de premier plan, visait à évaluer les performances de GPT-3 en matière de réponses informatives. Pour ce faire, ils ont conçu une série de tests au cours desquels ChatGPT a été comparé à des spécialistes humains dans divers domaines, notamment la science, l'histoire et la technologie.

Les conséquences n'ont été étonnantes pour personne. ChatGPT a infailliblement surpassé les experts mortels en fournissant des informations précises et complètes. En fait, ses réponses ont été jugées non seulement équivalentes, mais souvent supérieures à celles des spécialistes humains.


L'une des caractéristiques fondamentales contribuant aux performances exceptionnelles de GPT-3 est sa capacité à traiter et à synthétiser de vastes portions d'informations. Alors que les experts humains s'appuient sur leur mémoire et leur capacité cognitive limitée, Generative Pretrained Transformer 3 peut s'approcher d'un vaste référentiel de connaissances qui va au-delà de ce qu'une personne peut posséder. Cela permet à GPT-3 de fournir des réponses détaillées et précises à un large éventail de demandes, indépendamment de la complexité ou de l'obscurité du sujet.

En outre, les réponses de GPT-3 ne se limitent pas à la régurgitation d'informations existantes. Le prototype linguistique a fait preuve d'une remarquable aptitude à la pensée critique et à la résolution de problèmes. Il pouvait évaluer et interpréter des scénarios complexes, fournir des explications perspicaces et même proposer des suggestions créatives que les experts humains n'auraient peut-être pas envisagées. Cette polyvalence distingue ChatGPT-3 des autres prototypes artificiels et souligne sa capacité à contribuer à la recherche scientifique et à l'innovation.

Si l'analyse met en évidence les capacités d'information exceptionnelles de Generative Pretrained Transformer 3, elle soulève également d'importantes considérations éthiques. Le recours croissant à l'IA et à la compréhension des dispositifs dans les procédures de prise de décision nécessite un examen minutieux des biais et des limites imaginables de ces modèles. Malgré ses performances remarquables, GPT-3 n'est pas infaillible. Il peut encore produire des informations incorrectes ou trompeuses, en particulier lorsqu'il est confronté à des données ambiguës ou incomplètes. Il est donc essentiel d'aborder les résultats de GPT-3 avec un esprit critique et une supervision humaine.

Selon les auteurs de l'étude :

L'intelligence artificielle (IA) modifie la manière dont nous créons et évaluons l'information, et ce en pleine infodémie, qui a des effets marqués sur la santé mondiale. Nous évaluons ici si des personnes recrutées peuvent distinguer la désinformation des informations exactes, structurées sous forme de tweets, et déterminer si un tweet est organique ou synthétique, c'est-à-dire s'il a été écrit par un utilisateur de Twitter ou par le modèle d'intelligence artificielle GPT-3. Les résultats de notre étude préenregistrée, incluant 697 participants, montrent que GPT-3 est une arme à double tranchant : par rapport aux humains, il peut produire des informations exactes et plus faciles à comprendre, mais il peut aussi produire une désinformation plus convaincante. Nous montrons également que les humains ne peuvent pas faire la distinction entre les tweets générés par GPT-3 et ceux écrits par de vrais utilisateurs de Twitter. À partir de nos résultats, nous réfléchissons aux dangers de l'IA pour la désinformation et à la manière dont les campagnes d'information peuvent être améliorées au profit de la santé mondiale.
Les résultats de l'étude ont des implications importantes pour de nombreux secteurs. Dans le domaine de la santé, la capacité de GPT-3 à traiter de grandes quantités de littérature médicale pourrait aider à diagnostiquer des conditions complexes et à suggérer des plans de traitement personnalisés. Dans le domaine de l'éducation, il pourrait constituer une ressource précieuse pour les étudiants, en leur fournissant des informations instantanées et précises sur divers sujets. Dans le domaine de la recherche et du développement, les capacités analytiques du GPT-3 pourraient accélérer les découvertes scientifiques et l'innovation.

Cependant, l'intégration de ChatGPT-3 dans des applications réelles nécessitera de prendre en compte les problèmes de solitude et de protection. En tant que prototype de langage d'IA, ChatGPT-3 dépend de l'accès à de vastes portions d'informations, ce qui soulève des questions quant à la protection des informations et à leur utilisation abusive potentielle. La protection de la solitude des consommateurs et la garantie de pratiques responsables en matière de données seront essentielles pour exploiter toutes les possibilités offertes par cette technologie.

L'analyse met en évidence les commandes informatives exceptionnelles de GPT-3, qui surpassent les capacités des mortels en fournissant des informations précises et complètes. Son vaste réservoir de connaissances, ses capacités de réflexion critique et ses aptitudes à résoudre les problèmes en font un mécanisme puissant ayant de vastes implications pour divers secteurs d'activité. Toutefois, les défis honorables et pratiques liés à son utilisation doivent être abordés avec soin afin de garantir un déploiement responsable et d'accroître ses chances d'améliorer le sort de l'humanité. Alors que l'IA continue de progresser, ChatGPT-3 témoigne des capacités remarquables qui se trouvent dans le domaine de l'intelligence virtuelle et du traitement du langage naturel (NLP).

Source : article de recherche intitulé "AI model GPT-3 (dis)informs us better than humans"

Et vous ?

Quel est votre avis sur le sujet ?

Trouvez-vous cette étude crédible et pertinente ?

Selon vous, quelles sont les considérations éthiques qui découlent de l'utilisation croissante de modèles d'IA tels que GPT-3 dans les processus de prise de décision ?

Voir aussi

L'IA peut maintenant écrire de la désinformation pour tromper les lecteurs, des chercheurs ont utilisé le générateur de texte GPT-3 pour écrire des tweets que les gens ont trouvés convaincants

GPT-3, le système de génération de texte d'OpenAI, produit désormais 4,5 milliards de mots par jour avec une précision de 91 %

GPT-3, le système de génération de texte d'OpenAI, serait aussi performant qu'un humain de neuf ans dans les tests standard de la théorie de l'esprit, selon un psychologue

Une erreur dans cette actualité ? Signalez-nous-la !