IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

GPT-4o : OpenAI vend son nouveau chatbot comme un compagnon féminin coquet et obéissant, d'apres Zeeshan Aleem
Qui se demande si développer ce type de techno ne va pas exploiter les vulnérabilités humaines

Le , par Stéphane le calme

10PARTAGES

6  0 
Le 15 mai 2024, Zeeshan Aleem de MSNBC a publié un article exprimant des préoccupations concernant la dernière version du modèle de chatbot d’OpenAI, GPT-4o. Ce modèle avancé est doté de capacités vocales sophistiquées, permettant des conversations en temps réel avec une imitation convaincante des inflexions émotionnelles et du langage idiomatique humain

OpenAI a annoncé lundi le lancement de son nouveau modèle phare d'intelligence artificielle, appelé GPT-4o, ainsi que des mises à jour comprenant un nouveau service desktop et des avancées dans ses capacités d'assistant vocal. Parmi les mises à jour dévoilées par OpenAI figurent l'amélioration de la qualité et de la vitesse des capacités linguistiques internationales de ChatGPT, ainsi que la possibilité de télécharger des images, des documents audio et des textes afin que le modèle puisse les analyser. L'entreprise a indiqué qu'elle mettrait progressivement en place les fonctionnalités afin de s'assurer qu'elles sont utilisées en toute sécurité.

Mira Murati, directrice de la technologie, est apparue sur scène devant une foule enthousiaste dans les bureaux d'OpenAI, vantant le nouveau modèle comme un pas en avant dans le domaine de l'IA. Le nouveau modèle mettra le modèle d'IA GPT-4, plus rapide et plus précis, à la disposition des utilisateurs gratuits, alors qu'il était auparavant réservé aux clients payants.

« Nous envisageons l'avenir de l'interaction entre nous et les machines », a déclaré Murati. « Nous pensons que GPT-4o est en train de changer ce paradigme ».

L'événement comprenait également une démonstration en direct des nouvelles capacités vocales du modèle, avec deux responsables de recherche de l'OpenAI s'entretenant avec un modèle vocal d'IA. L'assistant vocal a généré une histoire à dormir debout sur l'amour et les robots, les chercheurs lui demandant de parler avec une variété d'émotions et d'inflexions vocales. Une autre démonstration a utilisé la fonction appareil photo d'un téléphone pour montrer au modèle d'IA une équation mathématique, puis le mode vocal de ChatGPT leur a expliqué comment la résoudre.

À un moment de la démonstration, un chercheur a demandé au modèle d'IA de lire l'expression de son visage et de juger ses émotions. L'assistant vocal de ChatGPT a estimé qu'il avait l'air « heureux et gai, avec un grand sourire et peut-être même une pointe d'excitation ».

« Quoi qu'il en soit, il semble que vous soyez de bonne humeur », a déclaré ChatGPT d'une voix féminine enjouée. « Voulez-vous partager la source de ces bonnes vibrations ? »


Zeeshan Aleem se demande si le développement de ce type de technologie ne va pas exploiter les vulnérabilités humaines

Zeeshan Aleem soulève des questions éthiques sur l’impact de telles technologies, en particulier en ce qui concerne leur potentiel à exploiter les vulnérabilités humaines. L’auteur fait référence au film “Her” de 2013 pour illustrer ses inquiétudes, notant des similitudes entre le film et la manière dont GPT-4o a été présenté - comme un compagnon féminin séduisant :

« La société d'intelligence artificielle OpenAI lance le dernier modèle de ChatGPT, qui permet d'utiliser les capacités vocales pour tenir des conversations avec les utilisateurs en temps réel. La technologie vocale est étonnamment sophistiquée : elle répond au discours de l'utilisateur en imitant de manière convaincante la vitesse, les inflexions émotionnelles et le langage idiomatique d'un humain. Le chatbot est également capable de reconnaître des objets et des images en temps réel et, lors de démonstrations, les développeurs d'OpenAI ont mis leur téléphone en évidence et ont demandé au chatbot de commenter l'environnement de l'utilisateur comme s'il s'agissait d'une conversation vidéo avec un ami.

« Le dévoilement de GPT-4o par OpenAI a également suscité le buzz - et des froncements de sourcils - parce que l'entreprise l'a présenté comme un compagnon féminin et coquet. Le PDG d'OpenAI, Sam Altman, a affiché le mot "her" sur X avant le dévoilement, une référence apparente au film "Her" réalisé par Spike Jonze en 2013. Dans ce film, Joaquin Phoenix, qui incarne un écrivain solitaire en instance de divorce, tombe amoureux d'une charmante assistante personnelle dotée d'une IA superintelligente, interprétée par Scarlett Johansson. On ne peut s'empêcher de remarquer que la voix de GPT-4o ressemble un peu à celle de Scarlett Johansson. Pendant les démonstrations, GPT-4o s'est montré constamment enjoué, rieur et a même flatté l'apparence des utilisateurs. Alors qu'il était en train de résoudre un problème d'algèbre pour un utilisateur, il lui a dit : "Wow, c'est une sacrée tenue que tu portes". Ce commentaire était si ouvertement provocateur que les médias ont qualifié l'interaction de "flirt" et "d'incitation" ».

Voici l'interview en question :

Pour Aleem, tout cela est un peu effrayant et soulève la question de savoir si le développement de ce type de technologie n'exploitera pas les vulnérabilités humaines et ne renforcera pas certains de nos pires instincts en tant que société.

Altman invite le public à désirer un monde comme celui dépeint dans « Her ». Mais l'histoire n'est pas vraiment joyeuse. « Her » est un conte effrayant qui illustre comment l'IA avancée est un remède inadéquat contre la solitude. Le personnage de Phoenix a des rapports sexuels verbaux avec son IA, mais il est incapable d'avoir une relation physique. Il croit avoir une relation romantique unique avec la voix jouée par Johannson, mais découvre que « Her » a en fait des conversations avec des milliers d'autres utilisateurs en même temps - et qu'elle tombe amoureuse de beaucoup d'entre eux aussi.

« À la fin du film, le bot interprété par Johannson quitte le personnage de Phoenix pour s'aventurer ailleurs avec d'autres IA capables de fonctionner à sa vitesse de calcul, et le personnage humain est pris au dépourvu et doit chercher à s'épanouir dans le monde réel avec d'autres humains. Les spectateurs ne sont pas tous d'accord sur le fait de savoir si ce détour loin des humains a été bénéfique ou non, mais le film met en évidence les limites et les déviations de la connexion avec l'IA plutôt qu'avec les personnes réelles ».

Une technologie qui pourrait renforcer les normes patriarcales

Et Aleem de continuer :

GPT-4o n'est pas aussi avancé que l'IA de « Her », mais il n'est pas difficile de comprendre comment les personnes qui ne comprennent pas comment elle fonctionne - en particulier si elles sont émotionnellement vulnérables - peuvent être enclines à projeter de la sensibilité sur le chatbot et à chercher un compagnon substantiel avec lui. (Et si ce n'est pas maintenant, ce sera au moins dans un avenir assez proche, étant donné le rythme effréné de l'innovation). Certains peuvent être optimistes quant à l'idée que les robots puissent fournir une sorte de compagnie aux gens, mais notre société n'a pas su éduquer les gens sur le fonctionnement de ces outils et sur les compromis qu'ils présentent.

La voix féminine coquette de GPT-4o soulève également la question de savoir si cette technologie renforce insidieusement les normes patriarcales en matière de genre. Nous devrions faire une pause et réfléchir à la production de masse de ce qui pourrait être la technologie vocale d'IA la plus humaine à ce jour, qui adopte les qualités sonores d'une femme coquette dont le travail consiste à recevoir docilement les ordres, à permettre l'interruption sans fin de son discours sans se plaindre et à récompenser l'utilisateur par une affection sans fin - et une attention à la limite de la sexualité. C'est peut-être ce que les cadres masculins attendaient de leurs assistantes personnelles dans les années 1950, mais ce n'est pas ce que nous attendons aujourd'hui en tant que société. Nous devrions nous méfier du genre de fantasmes qu'OpenAI veut entretenir et nous demander s'ils nous font réellement progresser.


Quelques pistes de réflexion sur les limites de ses propos

L’article de Zeeshan Aleem concernant GPT-4o d’OpenAI soulève des points pertinents sur les implications éthiques des avancées en intelligence artificielle. Cependant, il est important de noter que l’anthropomorphisation des technologies d’IA peut conduire à des malentendus sur leurs capacités réelles.

Premièrement, Aleem semble attribuer des qualités humaines à GPT-4o, en le décrivant comme un « compagnon féminin séduisant ». Cette personnalisation de l’IA peut créer des attentes irréalistes et potentiellement problématiques. L’IA, quelle que soit sa sophistication, reste un outil sans conscience ni émotions propres.

Deuxièmement, bien qu'Aleem met en lumière des préoccupations légitimes concernant l’utilisation de l’IA dans l’exploitation des vulnérabilités humaines, il est crucial de distinguer entre les intentions des créateurs d’IA et les utilisations potentielles par les utilisateurs finaux. Les développeurs peuvent concevoir des IA pour être utiles et engageantes, mais ils ne peuvent pas contrôler entièrement comment elles seront utilisées une fois déployées.

Enfin, Aleem aurait gagné à explorer les mesures de sécurité et des garde-fous éthiques mis en place par OpenAI pour prévenir les abus. La responsabilité de l’utilisation éthique de l’IA ne repose pas uniquement sur les développeurs, mais aussi sur les utilisateurs et la société dans son ensemble.

En somme, son article est un rappel opportun de la nécessité d’une réflexion continue sur l’évolution de l’IA. Il est essentiel que les discussions sur l’IA restent ancrées dans la réalité des capacités de la technologie et qu’elles reconnaissent la responsabilité partagée dans son développement et son utilisation responsable.

Source : Zeeshan Aleem, MSNBC Opinion Writer/Editor

Et vous ?

Quelles sont les limites éthiques que nous devrions imposer aux IA pour éviter qu’elles exploitent les vulnérabilités émotionnelles des utilisateurs ?
Dans quelle mesure devrions-nous anthropomorphiser les IA, et quelles pourraient être les conséquences de telles perceptions sur notre interaction avec la technologie ?
Comment les développeurs d’IA peuvent-ils équilibrer l’engagement des utilisateurs avec la responsabilité éthique, surtout lorsque l’IA imite des comportements humains complexes ?
Quel rôle les régulateurs et les décideurs devraient-ils jouer pour garantir que l’utilisation de l’IA reste dans les limites de l’éthique et du bien-être social ?
Les utilisateurs finaux ont-ils une part de responsabilité dans l’utilisation éthique de l’IA, et comment peuvent-ils être sensibilisés à ces enjeux ?
Quelles mesures préventives peuvent être prises pour éviter que les avancées en IA ne mènent à une dépendance ou à une désillusion sociale ?
Comment la société peut-elle se préparer à intégrer de manière saine des technologies telles que GPT-4o dans la vie quotidienne ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 14/08/2024 à 12:20
Tous les outils sur cette planète peuvent être mal utilisés mais il y en a toujours qui vont se plaindre que l'IA puisse être mal utilisée. La bêtise en devient drole, mais c'est triste quelque part.
1  0 
Avatar de Eye_Py_Ros
Membre du Club https://www.developpez.com
Le 21/05/2024 à 13:49
concernant le mauvais coté de l'IA. Nous risquons une crise identitaire.
La réplication, l'imitation en masse et le non respect de nos identités, risque de mettre à mal la société, une "crise de l'identité" ou les personnes seraient de moins en moins respecté.
Et dont le capitalisme userait, serait plus "violent" en ne respectant plus l'individu car copiable grâce à un genre de photocopieuse magique.
0  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 26/05/2024 à 15:09
Mon commentaire sera peut-être hors-sujet mais Open AI comme Copilot de MS a pompé des données pour retenir des idées, des codes sources, des puces de nouvelles générations et s'est affranchi des lois sur le copyright et les brevets matériels et logiciels au détriment des utilisateurs et professionnels. Je confirme donc qu'ils sont attaquables en procès pour le cas de Scarlett Johansson qui a vu sa voix devenir un fake pour les utilisateurs : Au minimum Open AI et MS ne respectent rien, pas même leur propres règles et leur propre parole. Peut-être Google aussi mais j'ai plus confiance en Google qu'en MS et Open AI bien qu'il faille toujours se méfier.
0  0 
Avatar de JackIsJack
Membre éclairé https://www.developpez.com
Le 03/08/2024 à 7:19
Là c'est un autre level sur l'impact sociétal possible...
0  0 
Avatar de Chouteau
Membre régulier https://www.developpez.com
Le 05/08/2024 à 13:24
Meme si a priori c'est une technologie spectaculaire, je ne peux m'empêcher de penser que les utilisations malveillantes qui vont en découler vont largement dépasser tout ce que l'on a pu connaitre.
Et que dire d'un robot qui rigole...
0  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 21/10/2024 à 11:02
Elle doit gérer les tensions entre sa mission déclarée, qui est de veiller à ce que l'intelligence artificielle générale profite à l'humanité, et son orientation de plus en plus commerciale.


C'est comme l'infomercial de Bill Gates sur les IPN, le loup déguisé en agneau.

Alors que le ChatGPT s'intègre de plus en plus profondément dans le travail et la vie de tous les jours
Dans la tête des PDG peut-être...
0  0