IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI met en garde les utilisateurs contre la création d'un lien émotionnel avec son chatbot GPT-4o
Après avoir révélé que certains avaient commencé à éprouver des sentiments pour son chatbot GPT-4o

Le , par Jade Emy

38PARTAGES

6  0 
OpenAI a mis en garde les utilisateurs après avoir constaté la formation de liens émotionnels avec son chatbot GPT-4o, ce qui soulève des questions éthiques. Les utilisateurs ont montré des signes d'anthropomorphisation de l'IA, ce qui pourrait avoir un impact sur les relations humaines et la socialisation. OpenAI prévoit d'étudier cette dépendance émotionnelle et les implications d'une intégration plus poussée des fonctions de l'IA.

Basé sur les grands modèles de langage (LLM), ChatGPT permet aux utilisateurs d'affiner et d'orienter une conversation vers une longueur, un format, un style, un niveau de détail et un langage souhaités. Bien que la fonction principale d'un chatbot soit d'imiter un interlocuteur humain, ChatGPT est polyvalent. Il peut écrire et déboguer des programmes informatiques, composer des essais d'étudiants, répondre à des questions de test, générer des idées commerciales, traduire et résumer des textes, etc.

GPT-4o mini, la version la plus récente du chatbot IA d'OpenAI, est un modèle visant à améliorer l'accessibilité et l'abordabilité. Le modèle est plus de 60 % moins cher, ce qui en fait une option économique pour une large gamme d'applications. GPT-4o mini surpasse GPT-3.5 Turbo et d'autres petits modèles sur des benchmarks académiques en termes d'intelligence textuelle et de raisonnement multimodal, et prend en charge la même gamme de langues que GPT-4o.

Mais OpenAI a lancé un avertissement à ses utilisateurs après avoir révélé que certains d'entre eux avaient commencé à développer des sentiments pour son chatbot GPT-4o. Les utilisateurs ont montré des signes d'anthropomorphisation de l'IA, ce qui pourrait avoir un impact sur les relations humaines et la socialisation. OpenAI prévoit d'étudier cette dépendance émotionnelle et les implications d'une intégration plus poussée des fonctions de l'IA.

[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">We’re sharing the GPT-4o System Card, an end-to-end safety assessment that outlines what we’ve done to track and address safety challenges, including frontier model risks in accordance with our Preparedness Framework. <a href="https://t.co/xohhlUquEr">https://t.co/xohhlUquEr</a></p>&mdash; OpenAI (@OpenAI) <a href="https://twitter.com/OpenAI/status/1821595015279472736?ref_src=twsrc%5Etfw">August 8, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/TWITTER]

OpenAI met en garde les utilisateurs contre la création d'un lien émotionnel avec son chatbot GPT-4o

Après avoir publié la fiche système de son chatbot GPT-4o, OpenAI a souligné les risques associés à "l'anthropomorphisation et à la dépendance émotionnelle", qui consiste à attribuer des comportements et des caractéristiques de type humain à des entités non humaines, telles que des modèles d'IA.

OpenAI a déclaré que le risque peut être accru par les capacités audio plus avancées de GPT-4o, qui semblent plus réalistes. Selon l'entreprise technologique, les premiers tests ont révélé que les utilisateurs utilisaient un langage susceptible de montrer qu'ils établissaient un lien avec le modèle d'OpenAI. Il s'agit par exemple d'un langage exprimant des liens partagés, comme "C'est notre dernier jour ensemble".

Le phénomène pourrait avoir des implications sociales plus larges. "La socialisation de type humain avec un modèle d'IA peut produire des externalités ayant un impact sur les interactions interhumaines", poursuit l'OpenAI. "Par exemple, les utilisateurs pourraient nouer des relations sociales avec l'IA, réduisant ainsi leur besoin d'interaction humaine, ce qui pourrait profiter aux personnes isolées, mais aussi affecter les relations saines."


Les modèles omni comme GPT-4o signifient que l'IA est capable de se souvenir des détails clés d'une conversation, mais cela peut également conduire à une dépendance excessive à l'égard des interactions technologiques.

OpenAI a ajouté qu'elle étudierait le potentiel de dépendance émotionnelle et la manière dont une intégration plus poussée des caractéristiques de son modèle et de ses systèmes avec l'outil audio pourrait entraîner un comportement et amener les gens à créer des liens avec lui. Cela dit, l'entreprise affirme que les modèles sont "déférents", permettant aux utilisateurs d'interrompre et de "prendre le micro" à tout moment.

De manière inquiétante, OpenAI a également noté que GPT-4o peut parfois "générer involontairement une sortie émulant la voix de l'utilisateur". Cela signifie qu'il pourrait être utilisé pour usurper l'identité d'une personne, ce qui pourrait être exploité à des fins malveillantes par des criminels ou d'anciens partenaires malveillants se livrant à des activités nuisibles.

[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">OpenAI's latest safety report reads like the plot to the 2013 movie Her:<br><br>&quot;users might form social relationships with AI, reducing their need for human interaction—potentially benefiting lonely individuals but possibly affecting healthy relationships.&quot;<a href="https://t.co/MGmnClBBKt">https://t.co/MGmnClBBKt</a> <a href="https://t.co/iNGLg8Geok">pic.twitter.com/iNGLg8Geok</a></p>&mdash; Neuroscience TV (@NeuroscienceTV) <a href="https://twitter.com/NeuroscienceTV/status/1821958918530077020?ref_src=twsrc%5Etfw">August 9, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/TWITTER]

Source : Fiche système GPT-4o

Et vous ?

Pensez-vous que cette mise en garde est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

ChatGPT Advanced Voice Mode impressionne les testeurs par ses effets sonores et sa capacité à reprendre son souffle. Il corrige la prononciation de mots français, en donnant des indications sur l'inflexion

Une psychologue du MIT met en garde les humains contre le risque de tomber amoureux de l'IA, déclarant que l'IA ne fait que semblant et ne se soucie pas de vous, et que ces relations sont illusoires

Le modèle GPT-4o présente un risque "moyen", selon la dernière évaluation d'OpenAI qui met en lumière ses efforts pour atténuer les risques potentiels liés à son dernier modèle d'IA multimodale

Les petites amies IA vont non seulement vous briser le cœur, mais aussi récolter et vendre vos données, avertissent les experts en protection de la vie privée de la Fondation Mozilla

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 14/08/2024 à 12:20
Tous les outils sur cette planète peuvent être mal utilisés mais il y en a toujours qui vont se plaindre que l'IA puisse être mal utilisée. La bêtise en devient drole, mais c'est triste quelque part.
1  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 21/10/2024 à 11:02
Elle doit gérer les tensions entre sa mission déclarée, qui est de veiller à ce que l'intelligence artificielle générale profite à l'humanité, et son orientation de plus en plus commerciale.


C'est comme l'infomercial de Bill Gates sur les IPN, le loup déguisé en agneau.

Alors que le ChatGPT s'intègre de plus en plus profondément dans le travail et la vie de tous les jours
Dans la tête des PDG peut-être...
0  0