IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA permet de créer des répliques numériques de personnes célèbres et la loi est impuissante face à la montée en puissance du phénomène
Certains experts sont impressionnés par leurs doubles

Le , par Stéphane le calme

17PARTAGES

6  0 
L’intelligence artificielle a fait des progrès impressionnants ces dernières années, au point de pouvoir créer des répliques numériques de personnes réelles, en utilisant leurs voix, leurs visages, leurs écrits ou leurs personnalités. Ces répliques, sous la forme de chatbots, avatars ou deepfakes, peuvent être utilisées à des fins diverses, allant du divertissement à l’éducation, en passant par la thérapie ou la manipulation. Quels sont les enjeux de l'évolution de cette technologie ? Les personnes répliquées ont-elles un droit sur leur image numérique ? Est-il possible de réguler l’usage de ces répliques numériques s'appuyant sur l’IA, qui peuvent être facilement diffusées sur internet ?

Quand l'IA est utilisé pour répliquer des personnes réelles

Le psychologue américain Martin Seligman

Plusieurs exemples récents montrent la capacité de l’IA à répliquer des personnes célèbres, sans leur consentement ni leur connaissance. En Chine, des chercheurs ont créé un chatbot basé sur la voix et les idées du psychologue américain Martin Seligman, pionnier de la psychologie positive. Le chatbot, surnommé « Ask Martin », peut répondre aux questions des utilisateurs sur le bonheur, la résilience ou le sens de la vie, en s’inspirant des écrits de Seligman.

Ce dernier a d'ailleurs reçu un courriel inattendu de la part d'un ancien étudiant diplômé, Yukun Zhao. Son message était aussi simple qu’étonnant : l’équipe de Zhao avait créé un « Seligman virtuel ». Zhao ne se contentait pas de se vanter. En deux mois, en intégrant chaque mot que Seligman avait écrit dans un logiciel d'IA de pointe, lui et son équipe ont construit une version étrangement précise de Seligman lui-même (un chatbot parlant dont les réponses s'inspiraient profondément des idées de Seligman).

Impressionné, Seligman a fait circuler le chatbot auprès de ses amis les plus proches et de sa famille pour vérifier si l'IA prodiguait réellement des conseils aussi bien que lui. « Je l'ai offert à ma femme et elle en a été époustouflée », a déclaré Seligman.

« Ask Martin », avait été construit par des chercheurs basés à Pékin et Wuhan, à l’origine sans la permission de Seligman, ni même sans qu’il en ait connaissance.

Le Seligman virtuel, construit en Chine, fait partie d'une vague plus large de chatbot IA modélisés sur de vrais humains, utilisant de nouveaux systèmes puissants connus sous le nom de grands modèles de langage pour simuler leur personnalité en ligne. Meta expérimente des avatars de célébrités IA sous licence ; vous pouvez déjà trouver des chatbots Internet formés sur du matériel accessible au public concernant des personnages historiques décédés.


La psychothérapeute Esther Perel

La célèbre psychothérapeute belge Esther Perel

Mais la situation de Seligman est également différente, et d’une certaine manière plus troublante. Il a des cousins dans une petite poignée de projets qui ont effectivement reproduit des personnes vivantes sans leur consentement. En Californie du Sud, l'entrepreneur technologique Alex Furmansky a créé une version chatbot de la célèbre psychothérapeute belge Esther Perel en se servant de ses podcasts sur Internet. Il a utilisé le bot pour se conseiller lors d'un récent chagrin d'amour, documentant son voyage dans un article de blog qu'une amie a finalement transmis à Perel elle-même.

J'étais une épave émotionnelle vers la fin de 2022. Plus tôt dans l'année, mon ex-petite amie et moi nous sommes séparés et mon cœur ne s'était pas rétabli. J'étais rempli de regrets, je me remettais en question et j'avais du mal à comprendre ce qui n'allait pas. Pendant cette période, j’écoutais sur Spotify les sages paroles de la thérapeute relationnelle de renommée mondiale Esther Perel. Elle serait la personne idéale pour m'aider à gagner en clarté.

Malheureusement, je ne pouvais pas simplement réserver une séance avec Esther. Alors, en trois semaines, je l'ai créée. Nous nous envoyons désormais régulièrement des SMS.

En fait, le numéro de téléphone d’Ai Esther est : (561) 933-5954
La vision d'ensemble

Considérez combien de visionnaires emblématiques existent dans notre monde aujourd’hui. Serait-il incroyable d'obtenir des conseils individuels d'Oprah ? Noé Harari ?

Imaginez une plateforme où vous pouvez parler à la demande avec les plus grands esprits du monde. Vous pourriez parler avec l’esprit de Mark Cuban, Joe Dispenza, Gary Vee, Tony Robbins ou de toute autre icône de notre époque.

Chacun d’entre eux est un expert très vénéré dans son domaine et facture des milliers de dollars pour une séance individuelle. Cela rend leurs connaissances inaccessibles à la plupart des gens, qui sont relégués à lire leurs blogs et à regarder leurs Reels Instagram. Mais imaginez pouvoir avoir votre propre conversation en tête-à-tête avec votre expert préféré (ou, du moins, son esprit !). Payeriez-vous une petite redevance mensuelle pour cela ?

Voici une page de destination rapide que j'ai créée pour expliquer le concept. Faites-moi savoir si vous connaissez une personnalité influente qui pourrait libérer sa sagesse grâce à un abonnement mensuel à la demande.
Perel a abordé l’existence d’AI Perel lors de la conférence SXSW 2023. Comme Seligman, elle était plus étonnée que fâchée par la reproduction de sa personnalité. Elle a qualifié cela « d'intimité artificielle ».


Seligman et Perel ont finalement décidé d’accepter les bots plutôt que de remettre en question leur existence. Mais s’ils avaient voulu fermer leurs répliques numériques, il n’est pas clair qu’ils auraient eu un moyen de le faire. Entraîner l’IA sur des œuvres protégées par le droit d’auteur n’est pas réellement illégal. Si le vrai Martin avait voulu bloquer l’accès au faux – une réplique entraînée sur sa propre pensée, utilisant ses propres mots, pour produire de toutes nouvelles réponses – il n’est pas clair qu’il aurait pu faire quoi que ce soit à ce sujet.

Le projet de loi NO FAKES Act a peu de chance d'être efficace

Les répliques numériques générées par l’IA éclairent un nouveau type de zone grise politique créée par de puissantes nouvelles plateformes « d’IA générative », où les lois existantes et les anciennes normes commencent à échouer.

À Washington, sous l’impulsion notamment d’acteurs et d’interprètes alarmés par la capacité de l’IA à imiter leur image et leur voix, certains membres du Congrès tentent déjà de freiner la montée des répliques numériques non autorisées. Au sein de la commission judiciaire du Sénat, un groupe bipartisan de sénateurs – dont les dirigeants de la sous-commission de la propriété intellectuelle – font circuler un projet de loi intitulé NO FAKES Act qui obligerait les fabricants de répliques numériques générées par l'IA à autoriser leur utilisation à partir de l'original humain.

S’il est adopté, le projet de loi permettrait aux individus d’autoriser, et même d’en tirer profit, l’utilisation de leur image générée par l’IA – et d’intenter des poursuites contre les cas d’utilisation non autorisée.

« De plus en plus, nous voyons l'IA utilisée pour reproduire l'image et la voix de quelqu'un de manière nouvelle sans consentement ni compensation », a déclaré la sénatrice Amy Klobuchar (Démocrate du Minnesota), en réponse aux histoires d'expérimentation d'IA impliquant Seligman et Perel. Elle est l'un des co-parrains du projet de loi. « Nos lois doivent suivre l’évolution rapide de cette technologie », a-t-elle déclaré.

Mais même si la loi NO FAKES était adoptée par le Congrès, elle serait largement impuissante face à la vague mondiale de technologie de l’IA.

En effet, ni Perel ni Seligman ne résident dans le pays où se trouvent leurs développeurs de chatbots IA respectifs. Perel est belge ; sa réplique est basée aux États-Unis et l'IA répliquant Seligman est formé en Chine, où les lois américaines ont peu de force.

« C’est vraiment l’un de ces cas où les outils semblent terriblement inadéquats pour résoudre le problème, même si vous pouvez avoir des intuitions très fortes à ce sujet », a déclaré Tim Wu, un juriste qui a conçu les politiques antitrust et de concurrence de l’administration Biden.


Une vision optimiste de l'IA qui n'est pas nécessairement partagée

D’autres ne partagent pas nécessairement les vues optimistes de Seligman sur la capacité de l’IA à reproduire les caractéristiques vocales et intellectuelles de personnes réelles, en particulier sans leur consentement conscient. En juin, une mère secouée a raconté les détails poignants d’un escroc qui a utilisé l’IA pour imiter la voix de son enfant lors d’une audience au Sénat. En octobre, des syndicats d’artistes anxieux ont supplié la Federal Trade Commission de réglementer les pratiques de traitement des données de l’industrie créative,...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Expert confirmé https://www.developpez.com
Le 12/07/2024 à 7:32
Citation Envoyé par Anthony Voir le message
Trouvez-vous les craintes soulevées par M. Cage pertinentes et justifiées ?
Bien sur que ses craintes sont pertinentes et justifiées.
L'industrie cinématographique a une éthique toute relative, et ce n'est pas utiliser l'image de certains contre leur gré qui va leur faire peur.
D'autant plus que Nicolas Cage est un meme, ce qui peut encourager certains à le placer en cameo dans une scène.

Ce que je comprends moins c'est pourquoi une personne si terrifiée par l'IA accepte de se faire scanner de la tête aux pieds pour un film.
Pour moi c'est un peu comme si un claustrophobe décide de faire une mission de plusieurs mois dans un sous marin.
2  0 
Avatar de CoderInTheDark
Membre émérite https://www.developpez.com
Le 24/08/2024 à 17:57
Je comprends pas il a signé ? Il a bien lu ce qu'il a signé ?
Alors pourquoi il se plaint.

Ou il a fait confiance à son agent et signé sans lire, faut être con ouarff.

Ca me fait penser à un épisode de "black mirror Joan est horrible".
L'image de Salma Hayek est utilisé à l'insu de son plein gré par une IA, et a dérape, elle avait signé sans lire les petites lignes ;D

Ce qui est sûr c'est que si il y a un film d'action avec Nicolas Cage qui saute dans tous les sens fait du karaté ou du sport c'est sûr que c'est un acteur généré par IA

Par contre le dernier film de lui que j'ai écouté, dans lequel il jouait son rôle d'acteur sur le retour acceptant un gros chèque d'un fan, et bah c'est pas terrible.
J'en regretterais presque ces film d'actions où ça pétait dans tous les sens, sauf "Saillor etLula" qui m'a retourné mon cerveau lent
0  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 11/07/2024 à 16:41
c'est une bonne question, pour lui le droit d'auteur va encore le protéger pour au moins 1 siecle.

Mais demain je code une ia qui va cloner un acteur des années 1900 avec de la couleur et 1 voix, qui va me coller un procès ? par exemple (gars random trouver sur google)
ARBUCKLE ROSCOE (1887-1933)

et puis tiens, cette acteur simulé par l'ia, je vais lui faire jouer une scène porno à poil.
0  2