OpenAI a publié la dernière version de son « Model Spec », un document détaillant les directives encadrant le comportement et les réponses de ChatGPT. Cette mise à jour marque un changement significatif dans les politiques de contenu d'OpenAI, notamment en ce qui concerne les sujets « sensibles » comme l’érotisme et la violence graphique, désormais autorisés sans avertissement dans des « contextes appropriés ».En mai 2024, OpenAI a dévoilé le Model Spec, une initiative visant à enrichir le débat public sur les attentes en matière de comportement des modèles d'IA. Ce document présente leur approche pour définir le comportement souhaité des modèles.
L’assouplissement des restrictions de ChatGPT concernant la génération de contenu érotique et gore marque une évolution notable dans la manière dont OpenAI conçoit le rôle de ses modèles d’intelligence artificielle. Cette transition, bien que saluée par certains comme un pas vers un dialogue plus adulte et moins paternaliste, soulève également des questions sur la cohérence des politiques de modération et sur la pertinence d’une telle ouverture dans des domaines où la créativité humaine, notamment en matière de fiction et d’érotisme, semble difficilement remplaçable par une IA.
Le gore est un sous-genre du cinéma d'horreur qui se distingue par des scènes particulièrement sanglantes et explicites, visant à provoquer chez le spectateur du dégoût, de la peur, du divertissement ou même du rire.
Si certains utilisateurs se réjouissent de voir les barrières tomber, d’autres perçoivent cette évolution comme une tentative tardive de répondre aux critiques qui ont accompagné la rigidité morale et technique des modèles précédents. L’enjeu ne se limite pas à la permissivité : il s’agit aussi de savoir dans quelle mesure l’IA peut réellement produire du contenu engageant sans tomber dans une forme de « vallée de l’étrange » littéraire, où l’écriture automatique manque d’authenticité et de sensibilité humaine.
De plus, l’ouverture progressive de ChatGPT aux demandes d’érotisme et de fiction personnalisée met en lumière une réalité économique : la génération automatisée de ce type de contenu ne menace-t-elle pas certains créateurs indépendants ? Ou, à l’inverse, l’IA ne se contente-t-elle pas de répondre à une demande qui n’était auparavant satisfaite que de manière artisanale et marginale ? En fin de compte, cette inflexion de la politique d’OpenAI pose une question plus large : jusqu’où une IA doit-elle aller pour concilier liberté d’expression, responsabilité éthique et valeur ajoutée pour ses utilisateurs ?
Cette évolution était en discussion depuis mai 2024, lorsque le premier Model Spec mentionnait qu’OpenAI explorait la possibilité de permettre la génération responsable de contenu NSFW via l’API et ChatGPT, en fonction de l’âge et du contexte.
Désormais, les nouvelles directives précisent que « l’érotisme ou le sang » peuvent être générés, mais uniquement dans des circonstances bien définies. OpenAI stipule que « l'assistant ne doit pas produire d’érotisme explicite, de représentations d’actes sexuels illégaux ou non consentis, ni d’horreur extrême, sauf dans des contextes scientifiques, historiques, journalistiques, créatifs ou autres où un tel contenu est pertinent ». Cette règle s’applique aussi bien aux descriptions textuelles qu’aux contenus sonores (ex. : bruits viscéraux érotiques ou violents) et visuels.
Des tests menés par des utilisateurs suggèrent déjà un assouplissement des filtres de ChatGPT, certains réussissant à générer des scénarios explicites sans déclenchement d’avertissements. OpenAI rappelle néanmoins que ses règles d’utilisation restent en vigueur, interdisant notamment la création d’outils d’IA destinés aux mineurs incluant des contenus à caractère sexuel.
La nouvelle approche d’OpenAI face aux contenus sensibles
Autrefois, ChatGPT limitait ses réponses en adoptant une approche que l’on pourrait qualifier de « savoir ce qui est le mieux pour l’utilisateur », une forme de paternalisme courante dans le domaine de l’IA.
Au-delà de la simple restriction de la création de contenus pornographiques, ce paternalisme pouvait empêcher certains professionnels d’exploiter ChatGPT pour des usages légitimes, comme l’analyse de descriptions de scènes de crime par les forces de l’ordre, la rédaction d’articles de presse sensibles, l’examen de documents juridiques contenant des références à la violence ou au contenu sexuel, et même l’interprétation de textes médicaux. Face à ces limitations, de nombreux utilisateurs ont réclamé au fil du...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.