IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« Néfaste et dangereuse » : Sam Altman, PDG d'OpenAI, met en garde contre la dépendance croissante des jeunes à l'égard du chatbot IA ChatGPT pour la prise de décisions personnelles

Le , par Anthony

0PARTAGES

4  0 
« Néfaste et dangereuse » : Sam Altman, PDG d'OpenAI, met en garde contre la dépendance croissante des jeunes à l'égard du chatbot IA ChatGPT pour la prise de décisions personnelles

Sam Altman, le PDG d'OpenAI, s'est dit préoccupé par la dépendance émotionnelle croissante des jeunes utilisateurs à l'égard de ChatGPT, qu'il a qualifiée de « néfaste et dangereuse ». Lors d'une récente conférence, le dirigeant a mis en garde contre l'influence omniprésente de cette technologie d'intelligence artificielle (IA) dans la prise de décisions personnelles. Il a également évoqué des préoccupations plus générales concernant l'utilisation abusive de l'IA par les cybercriminels, insistant sur des menaces telles que le clonage vocal et les « deepfakes » vidéo dans le secteur financier.

Ces mises en garde font suite aux préoccupations concernant l'utilisation croissante de ChatGPT par la génération Z comme alternative peu coûteuse à la thérapie. Attirés par son ton empathique et son coût plus abordable que celui de la plupart des thérapeutes humains, de nombreux jeunes utilisateurs se confient désormais au chatbot IA d'OpenAI. Cependant, les experts mettent en garde contre une telle dépendance, qui peut nuire à la capacité des personnes à gérer leurs problèmes par elles-mêmes.

Même le PDG d'OpenAI, Sam Altman, pense que les gens devraient se calmer en se fiant à ChatGPT pour prendre des décisions. Lors d'une récente conférence organisée par la Réserve fédérale, Sam Altman a déclaré qu'il existait une « dépendance émotionnelle excessive » à l'égard de ChatGPT, en particulier chez les jeunes.

« Les gens comptent trop sur ChatGPT », a déclaré Sam Altman. « Il y a des jeunes qui disent des choses comme "Je ne peux prendre aucune décision dans ma vie sans dire à ChatGPT tout ce qui se passe. Il me connaît, il connaît mes amis. Je vais faire tout ce qu'il me dit". Je trouve cela vraiment dommage ».


Sam Altman a déclaré que la dépendance excessive à l'égard de ChatGPT pour la prise de décision était « une chose très courante chez les jeunes », car les jeunes utilisent de plus en plus les chatbots et les compagnons d'IA dans leur vie quotidienne.

Mais les avertissements de Sam Altman ne s'arrêtent pas à la dépendance émotionnelle. Le dirigeant a également tiré la sonnette d'alarme sur l'utilisation abusive de l'IA par les cybercriminels, en particulier dans le secteur financier. « L'IA aide les humains de manière incroyable », a déclaré Sam Altman. « Mais cette aide n'est pas toujours de bonne foi. »

Au cours de la conférence, Sam Altman a exhorté les banques et les institutions financières à être « plus intelligentes que l'IA la plus intelligente » afin de protéger l'argent des clients contre des menaces croissantes telles que le clonage vocal et les « deepfakes » vidéo.

Le PDG d'OpenAI estime que le monde est peut-être au bord d'une « crise de fraude » à cause de la manière dont l'IA pourrait faciliter l'usurpation d'identité. Il a averti que les outils capables d'imiter la voix d'une personne peuvent facilement contourner l'authentification basée sur la voix et a critiqué les institutions pour leur complaisance.

« Ce qui me terrifie, c'est qu'il existe encore des institutions financières qui acceptent les empreintes vocales comme moyen d'authentification », a déclaré Sam Altman. « C'est une chose insensée à faire. L'IA a complètement vaincu la plupart des méthodes d'authentification actuelles. »

Il a fait remarquer que les clones vocaux générés par l'IA sont désormais suffisamment réalistes pour imiter presque parfaitement les personnes. Cela pourrait rendre inutile l'authentification basée sur la voix. Sam Altman a par ailleurs prévenu que les « deepfakes » vidéo constitueraient la prochaine grande menace, en ciblant probablement les systèmes de reconnaissance faciale.

« Je suis très inquiet à l'idée que nous soyons confrontés à une crise de la fraude importante et imminente », a-t-il ajouté. « Pour l'instant, il s'agit d'un appel vocal. Bientôt, il s'agira d'un FaceTime qu'il sera impossible de distinguer de la réalité. »

Source : Conférence organisée par la Réserve fédérale

Et vous ?

Quel est votre avis sur le sujet ?
Trouvez-vous les mises en garde du PDG d'OpenAI crédibles ou pertinentes ?

Voir aussi :

Sam Altman note que la façon dont les utilisateurs interagissent avec ChatGPT change en fonction de l'âge, les étudiants l'utilisent comme un conseiller pour les choix de vie et de carrière

Les adolescents utilisent ChatGPT pour obtenir des conseils financiers et réaliser des investissements en bourse, mais les experts mettent en garde contre les risques liés aux conseils « hallucinés »

De nombreux employés de la génération Z affirment que ChatGPT donne de meilleurs conseils de carrière que leurs patrons, mais une DRH rappelle que « l'IA ne peut pas gérer les nuances du comportement humain »
Vous avez lu gratuitement 167 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !