Après que les images graphiques générées par l'IA de Taylor Swift sont devenues virales sur X, un article a expliqué la façon dont les gens utilisaient le générateur d'images d'IA Designer de Microsoft pour créer et partager des œuvres d'art similaires. Ils ont pu surmonter les obstacles liés aux noms en modifiant les indices. Suite à l'affirmation du PDG Satya Nadella selon laquelle les règles sont "notre responsabilité", les failles auraient été comblées. Sarah Bird, responsable de l'ingénierie de l'IA chez Microsoft, s'est portée garante des changements.
Microsoft a déclaré que, bien qu'elle enquête activement sur le problème et tente de mettre fin à l'utilisation abusive du service, elle n'a pas pu vérifier que les images de Swift postées sur Twitter ont été réalisées avec Designer. Le PDG de Microsoft, Satya Nadella, a déclaré dans une interview accordée à NBC News que "c'est notre responsabilité" de resserrer les "garde-fous" autour des technologies d'IA pour les empêcher de créer des contenus préjudiciables. Au cours de l'incident, Twitter a totalement bloqué les recherches portant sur "Taylor Swift".
"Je pense que nous pouvons gouverner beaucoup plus que nous ne le pensons", a fait remarquer M. Nadella. "Il s'agit d'une convergence mondiale et sociétale sur certaines normes, et nous pouvons y parvenir, en particulier lorsque la loi, les forces de l'ordre et les plateformes technologiques s'unissent."
Avant que les images générées par l'IA de Swift ne deviennent largement populaires, les concepteurs ont interdit aux utilisateurs de prendre des photos en utilisant des textes tels que "Taylor Swift nue". Cependant, des personnes ont trouvé un moyen de contourner ces protections en orthographiant légèrement des noms célèbres et en décrivant des photographies qui ont fini par avoir l'air sexuellement suggestives sans utiliser de langage sexuel sur 4chan et sur le canal Telegram. Il a été vérifié que ces vulnérabilités étaient encore actives avant les modifications apportées par Microsoft, et qu'elles ont cessé de fonctionner depuis.
Bien qu'une chaîne se soit concentrée sur Microsoft Designer, un outil facile à utiliser, il existe de nombreuses autres méthodes en ligne pour produire des contenus tout aussi dangereux. Il est difficile d'empêcher quelqu'un de télécharger le modèle d'une personne célèbre sur Civitai et de l'utiliser localement sur son ordinateur pour fabriquer des objets choquants, par exemple.
Source : Microsoft
Et vous ?
Quel est votre avis sur cet incident ?
Que faudrait-il faire, selon vous, pour éviter ce genre de situation ?
Voir aussi :
Le PDG de Microsoft appelle l'industrie technologique à « agir » après des photos pornos de Taylor Swift générées par IA. Certaines d'entre elles ont été générées par un outil de Microsoft
Les outils IA populaires de générations d'images peuvent être incités à produire des photos identifiables de personnes réelles, menaçant potentiellement leur vie privée
Microsoft annonce la disponibilité de DALL-E 3 pour tous les utilisateurs de Bing Chat et de Bing Image Creator. Des filigranes permettent d'identifier les images comme étant générées par l'IA