Developpez.com - Rubrique IA

Le Club des Développeurs et IT Pro

Microsoft comble la lacune qui a causé l'incident "Taylor Swift"~? avec plus de protections pour Designer

Le générateur d'images par IA était utilisé pour produire des images pornographiques

Le 2024-01-30 08:18:55, par Jade Emy, Communiqués de presse
Microsoft a corrigé la vulnérabilité qui permettait à son générateur d'images par IA de créer des images obscènes de célébrités telles que Taylor Swift. Le PDG de Microsoft, Satya Nadella, a déclaré que "c'est notre responsabilité" de resserrer les "garde-fous" autour des technologies d'IA pour les empêcher de créer des contenus préjudiciables.

Après que les images graphiques générées par l'IA de Taylor Swift sont devenues virales sur X, un article a expliqué la façon dont les gens utilisaient le générateur d'images d'IA Designer de Microsoft pour créer et partager des œuvres d'art similaires. Ils ont pu surmonter les obstacles liés aux noms en modifiant les indices. Suite à l'affirmation du PDG Satya Nadella selon laquelle les règles sont "notre responsabilité", les failles auraient été comblées. Sarah Bird, responsable de l'ingénierie de l'IA chez Microsoft, s'est portée garante des changements.

Microsoft a déclaré que, bien qu'elle enquête activement sur le problème et tente de mettre fin à l'utilisation abusive du service, elle n'a pas pu vérifier que les images de Swift postées sur Twitter ont été réalisées avec Designer. Le PDG de Microsoft, Satya Nadella, a déclaré dans une interview accordée à NBC News que "c'est notre responsabilité" de resserrer les "garde-fous" autour des technologies d'IA pour les empêcher de créer des contenus préjudiciables. Au cours de l'incident, Twitter a totalement bloqué les recherches portant sur "Taylor Swift".

"Je pense que nous pouvons gouverner beaucoup plus que nous ne le pensons", a fait remarquer M. Nadella. "Il s'agit d'une convergence mondiale et sociétale sur certaines normes, et nous pouvons y parvenir, en particulier lorsque la loi, les forces de l'ordre et les plateformes technologiques s'unissent."


Avant que les images générées par l'IA de Swift ne deviennent largement populaires, les concepteurs ont interdit aux utilisateurs de prendre des photos en utilisant des textes tels que "Taylor Swift nue". Cependant, des personnes ont trouvé un moyen de contourner ces protections en orthographiant légèrement des noms célèbres et en décrivant des photographies qui ont fini par avoir l'air sexuellement suggestives sans utiliser de langage sexuel sur 4chan et sur le canal Telegram. Il a été vérifié que ces vulnérabilités étaient encore actives avant les modifications apportées par Microsoft, et qu'elles ont cessé de fonctionner depuis.

Bien qu'une chaîne se soit concentrée sur Microsoft Designer, un outil facile à utiliser, il existe de nombreuses autres méthodes en ligne pour produire des contenus tout aussi dangereux. Il est difficile d'empêcher quelqu'un de télécharger le modèle d'une personne célèbre sur Civitai et de l'utiliser localement sur son ordinateur pour fabriquer des objets choquants, par exemple.

Source : Microsoft

Et vous ?

Quel est votre avis sur cet incident ?
Que faudrait-il faire, selon vous, pour éviter ce genre de situation ?

Voir aussi :

Le PDG de Microsoft appelle l'industrie technologique à « agir » après des photos pornos de Taylor Swift générées par IA. Certaines d'entre elles ont été générées par un outil de Microsoft

Les outils IA populaires de générations d'images peuvent être incités à produire des photos identifiables de personnes réelles, menaçant potentiellement leur vie privée

Microsoft annonce la disponibilité de DALL-E 3 pour tous les utilisateurs de Bing Chat et de Bing Image Creator. Des filigranes permettent d'identifier les images comme étant générées par l'IA
  Discussion forum
17 commentaires
  • unanonyme
    Membre éclairé
    Par exemple c'est marrant qu'ils s'indignent d'un deepfake porno mais pas des tonnes d'œuvres créées en violation apparente du droit d'auteur.
    Les USA sont le plus gros producteur de contenus porno au monde.
    Ils n'en font pas un foin pour autant.
    Par contre un sein nu furtif à la télé et là ils se mettent tous à vomir.

    Ceux là c'est pas la cohérence qui les étouffe,
    enfin si, il y a une certaine constance,
    et donc une certaine cohérence
    dans la connerie qu'ils entretiennent.
  • L33tige
    Membre expérimenté
    Envoyé par Pandi_Panda02
    Le probème est-il l'IA ?
    Diffuser des vidéos porno de quelqu'un, et à fortiori sans son consentement, est illégal.
    Que ce soit généré par IA ou caméscope ne change rien aux textes en vigueur.

    L'envoi a également été validé à l'aide d'une souris et d'un clavier ?
    Vite, indignons nous des claviers !
    Peut-on comparer la vitesse de production d'un humain avec un clavier et celle de l'IA, même avec un pro de Photoshop on est même pas de l'ordre de 1 pour 1000.

    C'est un facteur clairement aggravant, quelqu'un avec zéro connaissance peut produire une image Pron avec le visage de quelqu'un d'autre, pour faire ça sur photoshop de façon à convaincre la personne lambda ça prends pas juste une semaine d'expérience non plus.
  • unanonyme
    Membre éclairé
    Envoyé par Pandi_Panda02
    Les conséquences, d'ordre légales ou autres, d'un fait commis (diffusion d'un porno implicant un tiers, un braquage, un viol, etc...) ne changent pas en fonction de la vitesse de production de celui-ci (que la vitesse de réalisation de cet acte soit permise par une nouvelle méthode ou nouvel outil, ou pas)
    Ironiquement,
    dans la mesure où la techno de deepfake porno est accessible à tout un chacun,
    et qu'on ne pourra bientôt plus départager ce qui est une vraie capture
    de ce qui est une mise en scène générée par l'IA,
    toutes accusations faites sur la base "d'une vidéo", ou d'un audio,
    devient nulle et non avenue,
    puisqu'on ne sait plus dire le vrai du faux.
  • behe
    Membre chevronné
    Perso, ce cas de deepfake me fait plus peur.
    Les deepfake photo existent depuis un moment et c'est juste parce que la cible est archi connue qu'on en parle
  • Pandi_Panda02
    Nouveau membre du Club
    Envoyé par L33tige 
    Peut-on comparer la vitesse de production d'un humain avec un clavier et celle de l'IA, même avec un pro de Photoshop on est même pas de l'ordre de 1 pour 1000.
    [/B] ça prends pas juste une semaine d'expérience non plus.

    Je ne sais pas. Je ne me pose pas cette question, puisque que la réponse soit "oui" ou "non",
    ne valide, ni n'invalide le propos que j'ai tenu

    Les conséquences, d'ordre légales ou autres, d'un fait commis (diffusion d'un porno implicant un tiers, un braquage, un viol, etc...) ne changent pas en fonction de la vitesse de production de celui-ci (que la vitesse de réalisation de cet acte soit permise par une nouvelle méthode ou nouvel outil, ou pas)

    Pour revenir plus près du cas précis qui nous rassemble ici, je m'étonne que lorsque qu'un vidéo porno impliquant un individu X ou Y apparait, une société appelle à règlementer tel ou tel outil ayant permis la réalisation du fait en question. La priorité, je pense, est de lutter contre ces individus et de les mettre hors de la société.

    Qu'ils aient utilisé un clavier, un caméscope, un smartphone avec ou sans IA, cette priorité me semble bien supérieure que d'appeler a modifier les règlementations sur les caméscopes, smartphones, etc... Car les individus en question, s'adapteront tant dans l'utilisation d'autres outils que dans le contournement des dites règlementations.

    En conclusion, c'est juste la réaction de cette entreprise qui me surprend
  • Jon Shannow
    Membre extrêmement actif
    Envoyé par Pandi_Panda02
    Je ne sais pas. Je ne me pose pas cette question, puisque que la réponse soit "oui" ou "non",
    ne valide, ni n'invalide le propos que j'ai tenu

    Les conséquences, d'ordre légales ou autres, d'un fait commis (diffusion d'un porno implicant un tiers, un braquage, un viol, etc...) ne changent pas en fonction de la vitesse de production de celui-ci (que la vitesse de réalisation de cet acte soit permise par une nouvelle méthode ou nouvel outil, ou pas)

    Pour revenir plus près du cas précis qui nous rassemble ici, je m'étonne que lorsque qu'un vidéo porno impliquant un individu X ou Y apparait, une société appelle à règlementer tel ou tel outil ayant permis la réalisation du fait en question. La priorité, je pense, est de lutter contre ces individus et de les mettre hors de la société.

    Qu'ils aient utilisé un clavier, un caméscope, un smartphone avec ou sans IA, cette priorité me semble bien supérieure que d'appeler a modifier les règlementations sur les caméscopes, smartphones, etc... Car les individus en question, s'adapteront tant dans l'utilisation d'autres outils que dans le contournement des dites règlementations.

    En conclusion, c'est juste la réaction de cette entreprise qui me surprend
    Je rejoins assez tes propos. Quand je me tape sur les doigts avec un marteau, je n'accuse pas le marteau. (enfin si, mais c'est juste parce que je suis de mauvaise foi. Mais de toutes façons, ni le marteau, ni le clou, ni le mur ne sont à remettre en cause).
  • unanonyme
    Membre éclairé
    la cible est archi connue
    vous êtes sur de cela ? Ou vous sous entendiez, elle est archi connue parmi la petite caste des gens du milieu (on en parle comme de la mafia) qui squatte la parole public à tout bout d champ pour dire ce qui leur plaît ?
  • L33tige
    Membre expérimenté
    Envoyé par OrthodoxWindows
    Oula oula oula le souhait dyspotique... C'est ironique j'espère ? (ou du troll).
    Blague à part, je suis pas d'accord avec le message cité, mais on vit déjà dans un futur dystopique, et le pire reste à venir. On est juste des gens au volant se dirigeant vers un mur et qui décident d'accélérer plutôt que de rester à vitesse constante.

    Les sextapes fausses ou vraies resteront un soucis pour la victime de la même façon que les montages pourris de la terre plate continuerons à se rependre comme la peste, tout simplement car rependre une rumeur est plus simple que de la contredire, et les gens DETESTENT se contredire eux-mêmes.
  • Jon Shannow
    Membre extrêmement actif
    Envoyé par unanonyme
    vous êtes sur de cela ? Ou vous sous entendiez, elle est archi connue parmi la petite caste des gens du milieu (on en parle comme de la mafia) qui squatte la parole public à tout bout d champ pour dire ce qui leur plaît ?
    C'est vrai que, perso, je ne la connaissais pas. A tel point que quand on a parlé de cette histoire au début, je pensais que c'était une de ces "influenceuses" qui n'influencent que ceux qui le veulent bien.
    J'ai découvert que c'était une "chanteuse". (je mets "chanteuse" entre guillemets, car de ce que j'ai entendu, je dirais plutôt "geularde" )