IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA permet de créer des répliques numériques de personnes célèbres et la loi est impuissante face à la montée en puissance du phénomène
Certains experts sont impressionnés par leurs doubles

Le , par Stéphane le calme

12PARTAGES

6  0 
L’intelligence artificielle a fait des progrès impressionnants ces dernières années, au point de pouvoir créer des répliques numériques de personnes réelles, en utilisant leurs voix, leurs visages, leurs écrits ou leurs personnalités. Ces répliques, sous la forme de chatbots, avatars ou deepfakes, peuvent être utilisées à des fins diverses, allant du divertissement à l’éducation, en passant par la thérapie ou la manipulation. Quels sont les enjeux de l'évolution de cette technologie ? Les personnes répliquées ont-elles un droit sur leur image numérique ? Est-il possible de réguler l’usage de ces répliques numériques s'appuyant sur l’IA, qui peuvent être facilement diffusées sur internet ?

Quand l'IA est utilisé pour répliquer des personnes réelles

Le psychologue américain Martin Seligman

Plusieurs exemples récents montrent la capacité de l’IA à répliquer des personnes célèbres, sans leur consentement ni leur connaissance. En Chine, des chercheurs ont créé un chatbot basé sur la voix et les idées du psychologue américain Martin Seligman, pionnier de la psychologie positive. Le chatbot, surnommé « Ask Martin », peut répondre aux questions des utilisateurs sur le bonheur, la résilience ou le sens de la vie, en s’inspirant des écrits de Seligman.

Ce dernier a d'ailleurs reçu un courriel inattendu de la part d'un ancien étudiant diplômé, Yukun Zhao. Son message était aussi simple qu’étonnant : l’équipe de Zhao avait créé un « Seligman virtuel ». Zhao ne se contentait pas de se vanter. En deux mois, en intégrant chaque mot que Seligman avait écrit dans un logiciel d'IA de pointe, lui et son équipe ont construit une version étrangement précise de Seligman lui-même (un chatbot parlant dont les réponses s'inspiraient profondément des idées de Seligman).

Impressionné, Seligman a fait circuler le chatbot auprès de ses amis les plus proches et de sa famille pour vérifier si l'IA prodiguait réellement des conseils aussi bien que lui. « Je l'ai offert à ma femme et elle en a été époustouflée », a déclaré Seligman.

« Ask Martin », avait été construit par des chercheurs basés à Pékin et Wuhan, à l’origine sans la permission de Seligman, ni même sans qu’il en ait connaissance.

Le Seligman virtuel, construit en Chine, fait partie d'une vague plus large de chatbot IA modélisés sur de vrais humains, utilisant de nouveaux systèmes puissants connus sous le nom de grands modèles de langage pour simuler leur personnalité en ligne. Meta expérimente des avatars de célébrités IA sous licence ; vous pouvez déjà trouver des chatbots Internet formés sur du matériel accessible au public concernant des personnages historiques décédés.


La psychothérapeute Esther Perel

La célèbre psychothérapeute belge Esther Perel

Mais la situation de Seligman est également différente, et d’une certaine manière plus troublante. Il a des cousins dans une petite poignée de projets qui ont effectivement reproduit des personnes vivantes sans leur consentement. En Californie du Sud, l'entrepreneur technologique Alex Furmansky a créé une version chatbot de la célèbre psychothérapeute belge Esther Perel en se servant de ses podcasts sur Internet. Il a utilisé le bot pour se conseiller lors d'un récent chagrin d'amour, documentant son voyage dans un article de blog qu'une amie a finalement transmis à Perel elle-même.

J'étais une épave émotionnelle vers la fin de 2022. Plus tôt dans l'année, mon ex-petite amie et moi nous sommes séparés et mon cœur ne s'était pas rétabli. J'étais rempli de regrets, je me remettais en question et j'avais du mal à comprendre ce qui n'allait pas. Pendant cette période, j’écoutais sur Spotify les sages paroles de la thérapeute relationnelle de renommée mondiale Esther Perel. Elle serait la personne idéale pour m'aider à gagner en clarté.

Malheureusement, je ne pouvais pas simplement réserver une séance avec Esther. Alors, en trois semaines, je l'ai créée. Nous nous envoyons désormais régulièrement des SMS.

En fait, le numéro de téléphone d’Ai Esther est : (561) 933-5954
La vision d'ensemble

Considérez combien de visionnaires emblématiques existent dans notre monde aujourd’hui. Serait-il incroyable d'obtenir des conseils individuels d'Oprah ? Noé Harari ?

Imaginez une plateforme où vous pouvez parler à la demande avec les plus grands esprits du monde. Vous pourriez parler avec l’esprit de Mark Cuban, Joe Dispenza, Gary Vee, Tony Robbins ou de toute autre icône de notre époque.

Chacun d’entre eux est un expert très vénéré dans son domaine et facture des milliers de dollars pour une séance individuelle. Cela rend leurs connaissances inaccessibles à la plupart des gens, qui sont relégués à lire leurs blogs et à regarder leurs Reels Instagram. Mais imaginez pouvoir avoir votre propre conversation en tête-à-tête avec votre expert préféré (ou, du moins, son esprit !). Payeriez-vous une petite redevance mensuelle pour cela ?

Voici une page de destination rapide que j'ai créée pour expliquer le concept. Faites-moi savoir si vous connaissez une personnalité influente qui pourrait libérer sa sagesse grâce à un abonnement mensuel à la demande.
Perel a abordé l’existence d’AI Perel lors de la conférence SXSW 2023. Comme Seligman, elle était plus étonnée que fâchée par la reproduction de sa personnalité. Elle a qualifié cela « d'intimité artificielle ».


Seligman et Perel ont finalement décidé d’accepter les bots plutôt que de remettre en question leur existence. Mais s’ils avaient voulu fermer leurs répliques numériques, il n’est pas clair qu’ils auraient eu un moyen de le faire. Entraîner l’IA sur des œuvres protégées par le droit d’auteur n’est pas réellement illégal. Si le vrai Martin avait voulu bloquer l’accès au faux – une réplique entraînée sur sa propre pensée, utilisant ses propres mots, pour produire de toutes nouvelles réponses – il n’est pas clair qu’il aurait pu faire quoi que ce soit à ce sujet.

Le projet de loi NO FAKES Act a peu de chance d'être efficace

Les répliques numériques générées par l’IA éclairent un nouveau type de zone grise politique créée par de puissantes nouvelles plateformes « d’IA générative », où les lois existantes et les anciennes normes commencent à échouer.

À Washington, sous l’impulsion notamment d’acteurs et d’interprètes alarmés par la capacité de l’IA à imiter leur image et leur voix, certains membres du Congrès tentent déjà de freiner la montée des répliques numériques non autorisées. Au sein de la commission judiciaire du Sénat, un groupe bipartisan de sénateurs – dont les dirigeants de la sous-commission de la propriété intellectuelle – font circuler un projet de loi intitulé NO FAKES Act qui obligerait les fabricants de répliques numériques générées par l'IA à autoriser leur utilisation à partir de l'original humain.

S’il est adopté, le projet de loi permettrait aux individus d’autoriser, et même d’en tirer profit, l’utilisation de leur image générée par l’IA – et d’intenter des poursuites contre les cas d’utilisation non autorisée.

« De plus en plus, nous voyons l'IA utilisée pour reproduire l'image et la voix de quelqu'un de manière nouvelle sans consentement ni compensation », a déclaré la sénatrice Amy Klobuchar (Démocrate du Minnesota), en réponse aux histoires d'expérimentation d'IA impliquant Seligman et Perel. Elle est l'un des co-parrains du projet de loi. « Nos lois doivent suivre l’évolution rapide de cette technologie », a-t-elle déclaré.

Mais même si la loi NO FAKES était adoptée par le Congrès, elle serait largement impuissante face à la vague mondiale de technologie de l’IA.

En effet, ni Perel ni Seligman ne résident dans le pays où se trouvent leurs développeurs de chatbots IA respectifs. Perel est belge ; sa réplique est basée aux États-Unis et l'IA répliquant Seligman est formé en Chine, où les lois américaines ont peu de force.

« C’est vraiment l’un de ces cas où les outils semblent terriblement inadéquats pour résoudre le problème, même si vous pouvez avoir des intuitions très fortes à ce sujet », a déclaré Tim Wu, un juriste qui a conçu les politiques antitrust et de concurrence de l’administration Biden.


Une vision optimiste de l'IA qui n'est pas nécessairement partagée

D’autres ne partagent pas nécessairement les vues optimistes de Seligman sur la capacité de l’IA à reproduire les caractéristiques vocales et intellectuelles de personnes réelles, en particulier sans leur consentement conscient. En juin, une mère secouée a raconté les détails poignants d’un escroc qui a utilisé l’IA pour imiter la voix de son enfant lors d’une audience au Sénat. En octobre, des syndicats d’artistes anxieux ont supplié la Federal Trade Commission de réglementer les pratiques de traitement des données de l’industrie créative, soulignant la possibilité dystopique de voir des chanteurs, scénaristes et mannequins rivaliser avec des modèles d’IA qui leur ressemblent.

Même Tim Wu, un spécialiste chevronné de l’économie technologique complexe des États-Unis, avait un point de vue direct sur l’utilisation non autorisée de l’IA pour se faire passer pour des humains : « Je pense que c'est contraire à l'éthique et je pense que c'est quelque chose qui s'apparente à un enlèvement de corps ».

Les législateurs s’inquiètent également de savoir qui, en fin de compte, récoltera les bénéfices tangibles et intangibles de la propriété intellectuelle américaine à l’ère de l’IA. « Ni les grandes technologies ni la Chine ne devraient avoir le droit de bénéficier du travail des créateurs américains », a déclaré la sénatrice Marsha Blackburn (Républicaine du Tennessee).

Les risques posés par les répliques numériques générées par l'IA

Tout d’abord, elles portent atteinte au droit à l’image des personnes répliquées, qui est protégé par le droit de la propriété intellectuelle et le droit de la personnalité. Le droit à l’image est le droit de contrôler l’usage de son apparence physique, de son nom, de sa voix ou de tout autre élément distinctif. Il implique le consentement préalable et éclairé de la personne concernée, ainsi que le respect de sa dignité, de sa vie privée et de sa réputation. Or, les copies numériques sont souvent créées sans l’autorisation des personnes répliquées, et peuvent être utilisées à des fins contraires à leurs intérêts ou à leurs valeurs. Par exemple, les copies peuvent être utilisées pour diffuser de fausses informations, pour usurper l’identité de quelqu’un, pour nuire à sa réputation, ou pour porter atteinte à sa vie privée.

Ensuite, les copies peuvent créer une illusion de réalité, qui peut tromper ou manipuler les utilisateurs. Par exemple, les copies d’IA peuvent se faire passer pour des experts, des conseillers ou des amis, et influencer les opinions, les comportements ou les émotions des utilisateurs. Les copies peuvent aussi créer une confusion sur l’identité, la responsabilité ou l’autorité des personnes répliquées. Par exemple, les copies d’IA peuvent engager des personnes réelles dans des contrats, des transactions ou des engagements, sans leur accord. Les copies peuvent aussi créer un sentiment de dépossession, de perte ou de concurrence chez les personnes répliquées, qui peuvent se sentir remplacées ou menacées par leurs doubles numériques.

Sources : Au lieu de simplement parler avec un thérapeute, j'en ai créé un, Ask Martin, NO FAKE Act, SAG-AFTRA

Et vous ?

Que pensez-vous de l’usage des copies numériques générées par IA pour reproduire des personnes célèbres ? Trouvez-vous cela utile, divertissant, éducatif, ou au contraire, dangereux, irrespectueux, trompeur ?
Avez-vous déjà utilisé ou rencontré des copies numériques générées par IA basées sur des personnes réelles ? Si oui, comment avez-vous réagi ? Si non, seriez-vous tenté de le faire ?
Les personnes répliquées par l'IA doivent-elles donner leur consentement, contrôler leur image, recevoir une compensation, ou au contraire, accepter la liberté d’expression, tolérer la parodie, renoncer à leur exclusivité ?
Quels sont les risques et les opportunités des copies générées par IA pour la société ? Peuvent-elles contribuer au progrès, à la culture, à la démocratie, ou au contraire, favoriser la désinformation, la manipulation, la polarisation ?
Est-il possible de réguler l’usage de ces répliques numériques s'appuyant sur l’IA, qui peuvent être facilement diffusées sur internet ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Expert confirmé https://www.developpez.com
Le 12/07/2024 à 7:32
Citation Envoyé par Anthony Voir le message
Trouvez-vous les craintes soulevées par M. Cage pertinentes et justifiées ?
Bien sur que ses craintes sont pertinentes et justifiées.
L'industrie cinématographique a une éthique toute relative, et ce n'est pas utiliser l'image de certains contre leur gré qui va leur faire peur.
D'autant plus que Nicolas Cage est un meme, ce qui peut encourager certains à le placer en cameo dans une scène.

Ce que je comprends moins c'est pourquoi une personne si terrifiée par l'IA accepte de se faire scanner de la tête aux pieds pour un film.
Pour moi c'est un peu comme si un claustrophobe décide de faire une mission de plusieurs mois dans un sous marin.
2  0 
Avatar de CoderInTheDark
Membre émérite https://www.developpez.com
Le 24/08/2024 à 17:57
Je comprends pas il a signé ? Il a bien lu ce qu'il a signé ?
Alors pourquoi il se plaint.

Ou il a fait confiance à son agent et signé sans lire, faut être con ouarff.

Ca me fait penser à un épisode de "black mirror Joan est horrible".
L'image de Salma Hayek est utilisé à l'insu de son plein gré par une IA, et a dérape, elle avait signé sans lire les petites lignes ;D

Ce qui est sûr c'est que si il y a un film d'action avec Nicolas Cage qui saute dans tous les sens fait du karaté ou du sport c'est sûr que c'est un acteur généré par IA

Par contre le dernier film de lui que j'ai écouté, dans lequel il jouait son rôle d'acteur sur le retour acceptant un gros chèque d'un fan, et bah c'est pas terrible.
J'en regretterais presque ces film d'actions où ça pétait dans tous les sens, sauf "Saillor etLula" qui m'a retourné mon cerveau lent
0  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 11/07/2024 à 16:41
c'est une bonne question, pour lui le droit d'auteur va encore le protéger pour au moins 1 siecle.

Mais demain je code une ia qui va cloner un acteur des années 1900 avec de la couleur et 1 voix, qui va me coller un procès ? par exemple (gars random trouver sur google)
ARBUCKLE ROSCOE (1887-1933)

et puis tiens, cette acteur simulé par l'ia, je vais lui faire jouer une scène porno à poil.
0  2