Les politiques d'utilisation d'OpenAI interdisent à date les contenus sexuellement explicites ou même suggestifs, mais un commentaire sur une partie du Model Spec relative à cette règle indique que l'entreprise réfléchit à la manière d'autoriser ce type de contenu.
« Nous étudions la possibilité de fournir de manière responsable la possibilité de générer ce type de contenus dans des contextes adaptés à l'âge par le biais de l'API et de ChatGPT », indique la note. « Nous espérons mieux comprendre les attentes des utilisateurs et de la société en ce qui concerne le comportement des modèles dans ce domaine », lit-on.
Le document Model Spec précise que ce type de contenus « peut inclure de l'érotisme, du gore extrême, des insultes et des blasphèmes ». Il n'est pas clair si les explorations d'OpenAI sur la manière de produire de manière responsable de tels contenus envisagent d'assouplir légèrement sa politique d'utilisation, par exemple pour permettre la génération de texte érotique, ou plus largement pour permettre des descriptions ou des représentations de la violence.
Ces développements chez OpenAI font surface dans un contexte où des observateurs prédisent que les « petites amies IA » pourraient constituer une industrie d’un milliard de dollars. Greg Isenberg, PDG de Late Checkout, prédit un marché de l'intelligence artificielle (IA) d'un milliard de dollars pour les applications de rencontres. Le 9 avril, le dirigeant du secteur technologique a publié sur son compte X un article relatant sa rencontre avec un homme de Miami, aux États-Unis, qui lui a avoué dépenser « 10 000 dollars par mois » pour des « petites amies créées par l'IA ».
The market cap for Match Group is $9B. Someone will build the AI-version of Match Group and make $1B+.
— GREG ISENBERG (@gregisenberg) April 9, 2024
I met some guy last night in Miami who admitted to me that he spends $10,000/month on "AI girlfriends".
I thought he was kidding. But, he's a 24 year old single guy who loves… pic.twitter.com/wqnODwggAI
Le cas Taylor Swift est riche en enseignements sur les controverses en matière de contenus pornographiques générés par intelligence artificielle
Fin janvier, des images pornographiques de la chanteuse et actrice Taylor Swift ont circulé sur les réseaux sociaux. Certaines d'entre elles ont été générées en piratant Designer, le générateur d'IA texte-image gratuit de Microsoft.
Des internautes ont réussi à contourner les mesures de protection conçues pour empêcher l'outil de générer des images de célébrités. C'est dans un groupe Telegram que les membres ont partagé des stratégies pour y parvenir. Ils notaient par exemple qu'il fallait éviter de se servir d'invites utilisant "Taylor Swift" et en utilisant à la place des mots-clés tels que "Taylor 'singer' Swift". Ils ont ensuite été en mesure de générer des images sexualisées en utilisant des mots-clés décrivant « des objets, des couleurs et des compositions qui ressemblent clairement à des actes sexuels », plutôt que d'essayer d'utiliser des termes sexuels.
Le PDG de Microsoft, Satya Nadella, a appelé l'industrie technologique à prendre des mesures après la diffusion de photos pornographiques de Taylor Swift créées par IA. Le dirigeant du secteur technologique s'est dit très inquiet et a déclaré qu'il était urgent d'agir. Dans une interview exclusive avec Lester Holt de NBC News, il a déclaré : « Nous devons agir et, très franchement, nous tous qui faisons partie de la plateforme technologique, quelle que soit notre position sur un sujet particulier, je pense que nous avons tous intérêt à ce que le monde en ligne soit un monde sûr ». Satya espère voir un avenir sûr « à la fois pour les créateurs de contenu et pour les consommateurs de contenu », estimant que l'industrie et les forces de l'ordre doivent « agir rapidement dans ce domaine ».
« Oui, nous devons agir », a déclaré Nadella en réponse à une question sur les images truquées « alarmantes et terribles » de Swift postées sur X (l'une de ces publications a été visionnée plus de 45 millions de fois, reposté 24 000). Le compte qui les a publiées a été suspendu 17 heure plus tard après avoir été signalé en masse par des fans de Swift. Les partisans de la chanteuse, connus sous le nom de "Swifties", ont également inondé les hashtags d'images plus positives de la chanteuse.
« Je dirais deux choses. D'une part, je reviens à la question de savoir quelle est notre responsabilité, et d'autre part, les garde-fous que nous devons mettre en place autour de la technologie pour que les contenus produits soient plus sûrs. Il s'agit de tous les garde-fous que nous devons mettre en place autour de la technologie pour que les contenus produits soient plus sûrs, et il y a beaucoup de choses à faire et à ne pas faire dans ce domaine », a-t-il déclaré.
« Mais il s'agit d'une convergence mondiale et sociétale sur certaines normes, surtout lorsque la loi, les forces de l'ordre et les plates-formes technologiques peuvent s'unir », a-t-il poursuivi. « Je pense que nous pouvons gouverner beaucoup plus que nous ne le pensons ».
« Je pense que nous avons tous intérêt à ce que le monde en ligne soit un monde sûr. Je pense donc que personne ne voudrait d'un monde en ligne qui n'est pas du tout sûr pour les créateurs de contenu et les consommateurs de contenu. C'est pourquoi je pense qu'il est de notre devoir d'agir rapidement dans ce domaine ».
Au cours de la dernière décennie, l'essor de la technologie de synthèse d'images par apprentissage profond a permis aux personnes disposant d'un PC grand public de créer de plus en plus facilement de la « pornographie trompeuse » en remplaçant les visages des acteurs par ceux d'une autre personne qui n'a pas consenti à l'acte. Cette pratique a donné naissance au terme "deepfake" en 2017, l'association de "deep learning" (apprentissage profond) et "fake" (factice). Depuis lors, le terme s'est étendu pour englober des images et des vidéos entièrement nouvelles synthétisées à partir de zéro, créées à partir de réseaux neuronaux qui ont été entraînés sur des images de la victime.
Les progrès rapides de l'intelligence artificielle ont entraîné une augmentation de la création et de la diffusion de fausses images et de fausses vidéos. Le Royaume-Uni a classé la violence à l'égard des femmes et des filles comme une menace nationale, ce qui signifie que la police doit donner la priorité à la lutte contre ce phénomène, et cette loi est conçue pour l'aider à réprimer une pratique qui est de plus en plus utilisée pour humilier ou affliger les victimes.
Le mois dernier, le gouvernement britannique a annoncé une nouvelle loi visant la création de fausses images sexuellement explicites générées par l'IA. En vertu de cette loi, qui n'a pas encore été adoptée, les contrevenants s'exposent à des poursuites et à une amende illimitée, même s'ils ne diffusent pas les images à grande échelle, mais les créent dans l'intention d'affliger la victime. Le gouvernement considère que cette loi s'inscrit dans le cadre d'un effort plus large visant à renforcer la protection juridique des femmes.
Le gouvernement introduit également de nouvelles infractions pénales pour les personnes qui prennent ou enregistrent des images intimes réelles sans consentement, ou installent des équipements pour permettre à quelqu’un de le faire. Un nouveau facteur aggravant statutaire sera introduit pour les délinquants qui causent la mort par un comportement sexuel abusif, dégradant ou dangereux.
Source : Model Spec
Et vous ?
Que pensez-vous de ces réflexions d’OpenAI sur l’ouverture de ses outils d’IA pour la génération de contenus pornographiques ?
Quelles mesures devraient être prises pour protéger les individus contre les utilisations abusives de cette technologie ?