IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Microsoft comble la lacune qui a causé l'incident "Taylor Swift", avec plus de protections pour Designer
Le générateur d'images par IA était utilisé pour produire des images pornographiques

Le , par Jade Emy

5PARTAGES

10  0 
Microsoft a corrigé la vulnérabilité qui permettait à son générateur d'images par IA de créer des images obscènes de célébrités telles que Taylor Swift. Le PDG de Microsoft, Satya Nadella, a déclaré que "c'est notre responsabilité" de resserrer les "garde-fous" autour des technologies d'IA pour les empêcher de créer des contenus préjudiciables.

Après que les images graphiques générées par l'IA de Taylor Swift sont devenues virales sur X, un article a expliqué la façon dont les gens utilisaient le générateur d'images d'IA Designer de Microsoft pour créer et partager des œuvres d'art similaires. Ils ont pu surmonter les obstacles liés aux noms en modifiant les indices. Suite à l'affirmation du PDG Satya Nadella selon laquelle les règles sont "notre responsabilité", les failles auraient été comblées. Sarah Bird, responsable de l'ingénierie de l'IA chez Microsoft, s'est portée garante des changements.

Microsoft a déclaré que, bien qu'elle enquête activement sur le problème et tente de mettre fin à l'utilisation abusive du service, elle n'a pas pu vérifier que les images de Swift postées sur Twitter ont été réalisées avec Designer. Le PDG de Microsoft, Satya Nadella, a déclaré dans une interview accordée à NBC News que "c'est notre responsabilité" de resserrer les "garde-fous" autour des technologies d'IA pour les empêcher de créer des contenus préjudiciables. Au cours de l'incident, Twitter a totalement bloqué les recherches portant sur "Taylor Swift".

"Je pense que nous pouvons gouverner beaucoup plus que nous ne le pensons", a fait remarquer M. Nadella. "Il s'agit d'une convergence mondiale et sociétale sur certaines normes, et nous pouvons y parvenir, en particulier lorsque la loi, les forces de l'ordre et les plateformes technologiques s'unissent."


Avant que les images générées par l'IA de Swift ne deviennent largement populaires, les concepteurs ont interdit aux utilisateurs de prendre des photos en utilisant des textes tels que "Taylor Swift nue". Cependant, des personnes ont trouvé un moyen de contourner ces protections en orthographiant légèrement des noms célèbres et en décrivant des photographies qui ont fini par avoir l'air sexuellement suggestives sans utiliser de langage sexuel sur 4chan et sur le canal Telegram. Il a été vérifié que ces vulnérabilités étaient encore actives avant les modifications apportées par Microsoft, et qu'elles ont cessé de fonctionner depuis.

Bien qu'une chaîne se soit concentrée sur Microsoft Designer, un outil facile à utiliser, il existe de nombreuses autres méthodes en ligne pour produire des contenus tout aussi dangereux. Il est difficile d'empêcher quelqu'un de télécharger le modèle d'une personne célèbre sur Civitai et de l'utiliser localement sur son ordinateur pour fabriquer des objets choquants, par exemple.

Source : Microsoft

Et vous ?

Quel est votre avis sur cet incident ?
Que faudrait-il faire, selon vous, pour éviter ce genre de situation ?

Voir aussi :

Le PDG de Microsoft appelle l'industrie technologique à « agir » après des photos pornos de Taylor Swift générées par IA. Certaines d'entre elles ont été générées par un outil de Microsoft

Les outils IA populaires de générations d'images peuvent être incités à produire des photos identifiables de personnes réelles, menaçant potentiellement leur vie privée

Microsoft annonce la disponibilité de DALL-E 3 pour tous les utilisateurs de Bing Chat et de Bing Image Creator. Des filigranes permettent d'identifier les images comme étant générées par l'IA

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de unanonyme
Membre éclairé https://www.developpez.com
Le 30/01/2024 à 10:16
Par exemple c'est marrant qu'ils s'indignent d'un deepfake porno mais pas des tonnes d'œuvres créées en violation apparente du droit d'auteur.
Les USA sont le plus gros producteur de contenus porno au monde.
Ils n'en font pas un foin pour autant.
Par contre un sein nu furtif à la télé et là ils se mettent tous à vomir.

Ceux là c'est pas la cohérence qui les étouffe,
enfin si, il y a une certaine constance,
et donc une certaine cohérence
dans la connerie qu'ils entretiennent.
4  0 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 30/01/2024 à 12:40
Citation Envoyé par Pandi_Panda02 Voir le message
Le probème est-il l'IA ?
Diffuser des vidéos porno de quelqu'un, et à fortiori sans son consentement, est illégal.
Que ce soit généré par IA ou caméscope ne change rien aux textes en vigueur.

L'envoi a également été validé à l'aide d'une souris et d'un clavier ?
Vite, indignons nous des claviers !
Peut-on comparer la vitesse de production d'un humain avec un clavier et celle de l'IA, même avec un pro de Photoshop on est même pas de l'ordre de 1 pour 1000.

C'est un facteur clairement aggravant, quelqu'un avec zéro connaissance peut produire une image Pron avec le visage de quelqu'un d'autre, pour faire ça sur photoshop de façon à convaincre la personne lambda ça prends pas juste une semaine d'expérience non plus.
2  0 
Avatar de unanonyme
Membre éclairé https://www.developpez.com
Le 31/01/2024 à 17:35
Citation Envoyé par Pandi_Panda02 Voir le message
Les conséquences, d'ordre légales ou autres, d'un fait commis (diffusion d'un porno implicant un tiers, un braquage, un viol, etc...) ne changent pas en fonction de la vitesse de production de celui-ci (que la vitesse de réalisation de cet acte soit permise par une nouvelle méthode ou nouvel outil, ou pas)
Ironiquement,
dans la mesure où la techno de deepfake porno est accessible à tout un chacun,
et qu'on ne pourra bientôt plus départager ce qui est une vraie capture
de ce qui est une mise en scène générée par l'IA,
toutes accusations faites sur la base "d'une vidéo", ou d'un audio,
devient nulle et non avenue,
puisqu'on ne sait plus dire le vrai du faux.
2  0 
Avatar de behe
Membre chevronné https://www.developpez.com
Le 07/02/2024 à 10:04
Perso, ce cas de deepfake me fait plus peur.
Les deepfake photo existent depuis un moment et c'est juste parce que la cible est archi connue qu'on en parle
2  0 
Avatar de Pandi_Panda02
Nouveau membre du Club https://www.developpez.com
Le 31/01/2024 à 14:44
Citation Envoyé par L33tige Voir le message
Peut-on comparer la vitesse de production d'un humain avec un clavier et celle de l'IA, même avec un pro de Photoshop on est même pas de l'ordre de 1 pour 1000.
[/B] ça prends pas juste une semaine d'expérience non plus.
Je ne sais pas. Je ne me pose pas cette question, puisque que la réponse soit "oui" ou "non",
ne valide, ni n'invalide le propos que j'ai tenu

Les conséquences, d'ordre légales ou autres, d'un fait commis (diffusion d'un porno implicant un tiers, un braquage, un viol, etc...) ne changent pas en fonction de la vitesse de production de celui-ci (que la vitesse de réalisation de cet acte soit permise par une nouvelle méthode ou nouvel outil, ou pas)

Pour revenir plus près du cas précis qui nous rassemble ici, je m'étonne que lorsque qu'un vidéo porno impliquant un individu X ou Y apparait, une société appelle à règlementer tel ou tel outil ayant permis la réalisation du fait en question. La priorité, je pense, est de lutter contre ces individus et de les mettre hors de la société.

Qu'ils aient utilisé un clavier, un caméscope, un smartphone avec ou sans IA, cette priorité me semble bien supérieure que d'appeler a modifier les règlementations sur les caméscopes, smartphones, etc... Car les individus en question, s'adapteront tant dans l'utilisation d'autres outils que dans le contournement des dites règlementations.

En conclusion, c'est juste la réaction de cette entreprise qui me surprend
1  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 31/01/2024 à 16:26
Citation Envoyé par Pandi_Panda02 Voir le message
Je ne sais pas. Je ne me pose pas cette question, puisque que la réponse soit "oui" ou "non",
ne valide, ni n'invalide le propos que j'ai tenu

Les conséquences, d'ordre légales ou autres, d'un fait commis (diffusion d'un porno implicant un tiers, un braquage, un viol, etc...) ne changent pas en fonction de la vitesse de production de celui-ci (que la vitesse de réalisation de cet acte soit permise par une nouvelle méthode ou nouvel outil, ou pas)

Pour revenir plus près du cas précis qui nous rassemble ici, je m'étonne que lorsque qu'un vidéo porno impliquant un individu X ou Y apparait, une société appelle à règlementer tel ou tel outil ayant permis la réalisation du fait en question. La priorité, je pense, est de lutter contre ces individus et de les mettre hors de la société.

Qu'ils aient utilisé un clavier, un caméscope, un smartphone avec ou sans IA, cette priorité me semble bien supérieure que d'appeler a modifier les règlementations sur les caméscopes, smartphones, etc... Car les individus en question, s'adapteront tant dans l'utilisation d'autres outils que dans le contournement des dites règlementations.

En conclusion, c'est juste la réaction de cette entreprise qui me surprend
Je rejoins assez tes propos. Quand je me tape sur les doigts avec un marteau, je n'accuse pas le marteau. (enfin si, mais c'est juste parce que je suis de mauvaise foi. Mais de toutes façons, ni le marteau, ni le clou, ni le mur ne sont à remettre en cause).
1  0 
Avatar de unanonyme
Membre éclairé https://www.developpez.com
Le 07/02/2024 à 11:02
la cible est archi connue
vous êtes sur de cela ? Ou vous sous entendiez, elle est archi connue parmi la petite caste des gens du milieu (on en parle comme de la mafia) qui squatte la parole public à tout bout d champ pour dire ce qui leur plaît ?
2  1 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 30/01/2024 à 12:44
Citation Envoyé par OrthodoxWindows Voir le message
Oula oula oula le souhait dyspotique... C'est ironique j'espère ? (ou du troll).
Blague à part, je suis pas d'accord avec le message cité, mais on vit déjà dans un futur dystopique, et le pire reste à venir. On est juste des gens au volant se dirigeant vers un mur et qui décident d'accélérer plutôt que de rester à vitesse constante.

Les sextapes fausses ou vraies resteront un soucis pour la victime de la même façon que les montages pourris de la terre plate continuerons à se rependre comme la peste, tout simplement car rependre une rumeur est plus simple que de la contredire, et les gens DETESTENT se contredire eux-mêmes.
0  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 07/02/2024 à 11:53
Citation Envoyé par unanonyme Voir le message
vous êtes sur de cela ? Ou vous sous entendiez, elle est archi connue parmi la petite caste des gens du milieu (on en parle comme de la mafia) qui squatte la parole public à tout bout d champ pour dire ce qui leur plaît ?
C'est vrai que, perso, je ne la connaissais pas. A tel point que quand on a parlé de cette histoire au début, je pensais que c'était une de ces "influenceuses" qui n'influencent que ceux qui le veulent bien.
J'ai découvert que c'était une "chanteuse". (je mets "chanteuse" entre guillemets, car de ce que j'ai entendu, je dirais plutôt "geularde" )
1  1