Basé sur les grands modèles de langage (LLM), ChatGPT permet aux utilisateurs d'affiner et d'orienter une conversation vers une longueur, un format, un style, un niveau de détail et un langage souhaités. Bien que la fonction principale d'un chatbot soit d'imiter un interlocuteur humain, ChatGPT est polyvalent. Il peut écrire et déboguer des programmes informatiques, composer des essais d'étudiants, répondre à des questions de test, générer des idées commerciales, traduire et résumer des textes, etc.
GPT-4o mini, la version la plus récente du chatbot IA d'OpenAI, est un modèle visant à améliorer l'accessibilité et l'abordabilité. Le modèle est plus de 60 % moins cher, ce qui en fait une option économique pour une large gamme d'applications. GPT-4o mini surpasse GPT-3.5 Turbo et d'autres petits modèles sur des benchmarks académiques en termes d'intelligence textuelle et de raisonnement multimodal, et prend en charge la même gamme de langues que GPT-4o.
Mais OpenAI a lancé un avertissement à ses utilisateurs après avoir révélé que certains d'entre eux avaient commencé à développer des sentiments pour son chatbot GPT-4o. Les utilisateurs ont montré des signes d'anthropomorphisation de l'IA, ce qui pourrait avoir un impact sur les relations humaines et la socialisation. OpenAI prévoit d'étudier cette dépendance émotionnelle et les implications d'une intégration plus poussée des fonctions de l'IA.
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">We’re sharing the GPT-4o System Card, an end-to-end safety assessment that outlines what we’ve done to track and address safety challenges, including frontier model risks in accordance with our Preparedness Framework. <a href="https://t.co/xohhlUquEr">https://t.co/xohhlUquEr</a></p>— OpenAI (@OpenAI) <a href="https://twitter.com/OpenAI/status/1821595015279472736?ref_src=twsrc%5Etfw">August 8, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/TWITTER]
OpenAI met en garde les utilisateurs contre la création d'un lien émotionnel avec son chatbot GPT-4o
Après avoir publié la fiche système de son chatbot GPT-4o, OpenAI a souligné les risques associés à "l'anthropomorphisation et à la dépendance émotionnelle", qui consiste à attribuer des comportements et des caractéristiques de type humain à des entités non humaines, telles que des modèles d'IA.
OpenAI a déclaré que le risque peut être accru par les capacités audio plus avancées de GPT-4o, qui semblent plus réalistes. Selon l'entreprise technologique, les premiers tests ont révélé que les utilisateurs utilisaient un langage susceptible de montrer qu'ils établissaient un lien avec le modèle d'OpenAI. Il s'agit par exemple d'un langage exprimant des liens partagés, comme "C'est notre dernier jour ensemble".
Le phénomène pourrait avoir des implications sociales plus larges. "La socialisation de type humain avec un modèle d'IA peut produire des externalités ayant un impact sur les interactions interhumaines", poursuit l'OpenAI. "Par exemple, les utilisateurs pourraient nouer des relations sociales avec l'IA, réduisant ainsi leur besoin d'interaction humaine, ce qui pourrait profiter aux personnes isolées, mais aussi affecter les relations saines."
Les modèles omni comme GPT-4o signifient que l'IA est capable de se souvenir des détails clés d'une conversation, mais cela peut également conduire à une dépendance excessive à l'égard des interactions technologiques.
OpenAI a ajouté qu'elle étudierait le potentiel de dépendance émotionnelle et la manière dont une intégration plus poussée des caractéristiques de son modèle et de ses systèmes avec l'outil audio pourrait entraîner un comportement et amener les gens à créer des liens avec lui. Cela dit, l'entreprise affirme que les modèles sont "déférents", permettant aux utilisateurs d'interrompre et de "prendre le micro" à tout moment.
De manière inquiétante, OpenAI a également noté que GPT-4o peut parfois "générer involontairement une sortie émulant la voix de l'utilisateur". Cela signifie qu'il pourrait être utilisé pour usurper l'identité d'une personne, ce qui pourrait être exploité à des fins malveillantes par des criminels ou d'anciens partenaires malveillants se livrant à des activités nuisibles.
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">OpenAI's latest safety report reads like the plot to the 2013 movie Her:<br><br>"users might form social relationships with AI, reducing their need for human interaction—potentially benefiting lonely individuals but possibly affecting healthy relationships."<a href="https://t.co/MGmnClBBKt">https://t.co/MGmnClBBKt</a> <a href="https://t.co/iNGLg8Geok">pic.twitter.com/iNGLg8Geok</a></p>— Neuroscience TV (@NeuroscienceTV) <a href="https://twitter.com/NeuroscienceTV/status/1821958918530077020?ref_src=twsrc%5Etfw">August 9, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/TWITTER]
Source : Fiche système GPT-4o
Et vous ?
Pensez-vous que cette mise en garde est crédible ou pertinente ?
Quel est votre avis sur le sujet ?
Voir aussi :
ChatGPT Advanced Voice Mode impressionne les testeurs par ses effets sonores et sa capacité à reprendre son souffle. Il corrige la prononciation de mots français, en donnant des indications sur l'inflexion
Une psychologue du MIT met en garde les humains contre le risque de tomber amoureux de l'IA, déclarant que l'IA ne fait que semblant et ne se soucie pas de vous, et que ces relations sont illusoires
Le modèle GPT-4o présente un risque "moyen", selon la dernière évaluation d'OpenAI qui met en lumière ses efforts pour atténuer les risques potentiels liés à son dernier modèle d'IA multimodale
Les petites amies IA vont non seulement vous briser le cœur, mais aussi récolter et vendre vos données, avertissent les experts en protection de la vie privée de la Fondation Mozilla