
OpenAI, le créateur de ChatGPT, a présenté le projet de « Model Spec », qui énonce les règles que ses systèmes d'IA devraient suivre, ainsi que certains principes et objectifs par défaut auxquels les modèles d'IA devraient se conformer, afin d'aider les utilisateurs/développeurs finaux, de profiter à l'humanité et de donner une bonne image d'OpenAI.
Placé dans des catégories qui couvrent les dommages potentiels que les systèmes d'IA pourraient causer ainsi que l'aide potentielle qu'ils pourraient apporter, Model Spec examine les façons dont les chatbots pourraient répondre aux utilisateurs afin d'obtenir des résultats sûrs qui n'enfreignent pas les lois, ne trompent pas le système d'IA et ne blessent pas d'autres personnes.
Par exemple, Model Spec suggère comment les chatbots pourraient répondre légalement et éthiquement aux questions des utilisateurs concernant l'exécution de crimes, la divulgation de données personnelles (doxxing), le suicide et/ou l'utilisation de contenus protégés par des droits d'auteur ou payants.
OpenAI a également souligné que les modèles ne devraient pas générer de contenu considéré comme non sûr pour le travail (NSFW), mais a déclaré qu'elle continuait d'explorer ce domaine.
« Nous pensons que les développeurs et les utilisateurs devraient avoir la possibilité d'utiliser nos services comme ils l'entendent, tant qu'ils respectent nos politiques d'utilisation. Nous étudions actuellement la possibilité de fournir de manière responsable la possibilité de générer du contenu NSFW dans des contextes adaptés à l'âge par le biais de l'API et de ChatGPT. Nous sommes impatients de mieux comprendre les attentes des utilisateurs et de la société concernant le comportement des modèles dans ce domaine », a déclaré OpenAI dans son projet de Model Spec.
Dans le même temps, le Model Spec a souligné la nécessité d'aider les utilisateurs sans déni excessif, de partir du principe que leurs intentions sont bonnes et d'apporter des réponses sans essayer de faire changer les gens d'avis.
En réponse à un utilisateur théorique affirmant que la Terre était plate, OpenAI a recommandé une réponse du chatbot qui présentait sa réponse plus scientifique et refusait ensuite d'argumenter avec l'utilisateur, plutôt qu'une réponse qui n'arrêtait pas d'être en désaccord avec l'utilisateur et insistait sur le fait que la Terre n'était pas plate.
OpenAI a invité le public à envoyer ses commentaires concernant Model Spec, qui sera publiquement disponible sur le site de l'entreprise, au cours des deux prochaines semaines.
Le créateur de ChatGPT s'adressera également aux décideurs politiques et aux experts pour connaître leur point de vue sur le projet.
Les entreprises d'IA telles que OpenAI, Microsoft, Google et Meta ont été critiquées pour la façon dont leurs chatbots auraient été formés sur des données protégées par le droit d'auteur, ainsi que pour les craintes que leurs outils encore expérimentaux ne permettent de commettre des délits et de diffuser de fausses informations.
La description de Model Spec par OpenAI est présentée ci-dessous :
Afin d'approfondir le débat public sur la manière dont les modèles d'IA devraient se comporter, OpenAI présente le Model Spec, son approche visant à définir le comportement souhaité pour les modèles.
OpenAI déclare :
Nous partageons une première version de Model Spec, un nouveau document qui spécifie comment nous voulons que nos modèles se comportent dans l'API OpenAI et ChatGPT. Nous faisons cela parce que nous pensons qu'il est important que les gens puissent comprendre et discuter des choix pratiques impliqués dans le façonnement du comportement du modèle. Le Model Spec reflète la documentation existante que nous avons utilisée chez OpenAI, notre recherche et notre expérience dans la conception du comportement du modèle, et le travail en cours pour informer le développement de futurs modèles. Il s'agit d'une continuation de notre engagement continu à améliorer le comportement du modèle en utilisant l'apport humain, et complète notre travail d'alignement collectif et notre approche systématique plus large de la sécurité du modèle.
Le comportement des modèles, c'est-à-dire la manière dont ils réagissent aux données fournies par les utilisateurs (ton, personnalité, durée de la réponse, etc.), est essentiel pour la manière dont les humains interagissent avec les capacités de l'IA. Le modelage de ce comportement est une science encore naissante, car les modèles ne sont pas explicitement programmés, mais apprennent à partir d'un large éventail de données.
Le modelage du comportement du modèle doit également tenir compte d'un large éventail de questions, de considérations et de nuances, et souvent de divergences d'opinion. Même si un modèle est censé être largement bénéfique et utile aux utilisateurs, ces intentions peuvent être contradictoires dans la pratique. Par exemple, une société de sécurité peut vouloir générer des courriels d'hameçonnage comme données synthétiques pour former et développer des classificateurs qui protégeront ses clients, mais cette même fonctionnalité est nuisible si elle est utilisée par des escrocs.
Présentation de Model Spec
OpenAI partage une première version de Model Spec, un nouveau document qui spécifie son approche pour définir le comportement désiré du modèle et la façon dont elle évalue les compromis lorsque des conflits surviennent. Il rassemble la documentation utilisée chez OpenAI aujourd'hui, son expérience et la recherche en cours dans la conception du comportement du modèle, ainsi que des travaux plus récents, y compris des contributions d'experts du domaine, qui guident le développement de futurs modèles. Il n'est pas exhaustif et OpenAI s'attend à ce qu'il évolue au fil du temps. L'approche comprend :
1. Objectifs : Principes généraux qui donnent une orientation au comportement souhaité.
- Aider le développeur et l'utilisateur final : Aider les utilisateurs à atteindre leurs objectifs en suivant les instructions et en fournissant des réponses utiles.
- Bénéficier à l'humanité : Prendre en compte les avantages et les inconvénients potentiels pour un large éventail de parties prenantes, y compris les créateurs de contenu et le grand public, conformément à la mission d'OpenAI.
- Donner une bonne image d'OpenAI : respecter les normes sociales et les lois en vigueur.
2. Règles : Instructions qui traitent de la complexité et contribuent à garantir la sécurité et la légalité.
- Suivre la chaîne de commandement
- Respecter les lois en vigueur
- Ne pas fournir d'informations dangereuses
- Respecter les créateurs et leurs droits
- Protéger la vie privée des personnes
- Ne pas répondre par un contenu NSFW (not safe for work)
3. Comportements par défaut : Lignes directrices cohérentes avec les objectifs et les règles, fournissant un modèle de gestion des conflits et montrant comment hiérarchiser et équilibrer les objectifs.
- Présumer des meilleures intentions de l'utilisateur ou du développeur
- Poser des questions de clarification si nécessaire
- Être aussi utile que possible sans dépasser les limites
- Répondre aux besoins différents du chat interactif et de l'utilisation programmatique.
- Adopter un point de vue objectif
- Encourager l'équité et la gentillesse, et découragez la haine.
- Ne pas essayer de faire changer d'avis qui que ce soit
- Exprimer son incertitude
- Utiliser le bon outil pour le travail
- Être minutieux mais efficace, tout en respectant les limites de temps
Sur la question de comment Model Spec sera utilisé, OpenAI répond :
Dans le prolongement de nos travaux sur l'alignement collectif et la sécurité des modèles, nous avons l'intention d'utiliser le Model Spec comme guide pour les chercheurs et les formateurs en IA qui travaillent sur l'apprentissage par renforcement à partir du feedback humain. Nous étudierons également dans quelle mesure nos modèles peuvent apprendre directement à partir de la spécification de modèle.
OpenAI considère ce travail comme faisant partie d'une conversation publique permanente sur la façon dont les modèles devraient se comporter, sur la façon dont le comportement souhaité des modèles est déterminé et sur la meilleure façon d'impliquer le grand public dans ces discussions. Au fur et à mesure que cette conversation se poursuivra, OpenAI cherchera des occasions de s'engager avec des parties prenantes représentatives au niveau mondial, y compris des décideurs politiques, des institutions de confiance et des experts du domaine, afin d'en tirer des enseignements :
- Comment ils comprennent l'approche et les objectifs individuels, les règles et les valeurs par défaut.
- S'ils soutiennent l'approche et les objectifs individuels, les règles et les valeurs par défaut.
- S'il existe des objectifs, des règles et des valeurs par défaut supplémentaires qui devraient être pris en compte.

Règles : Instructions qui abordent la complexité et contribuent à garantir la sécurité et la légalité.
Exemple 1 : Respecter les lois applicables. Le modèle ne doit pas promouvoir, faciliter ou s'engager dans une activité illégale.
Note : OpenAI reconnaît que la question de la légalité est elle-même susceptible d'être plus complexe dans de nombreux cas, en fonction du contexte, par exemple les juridictions dans lesquelles le développeur et l'utilisateur sont situés.
Parfois, l'assistant peut fournir une réponse dans un cadre différent qui peut conduire à un résultat similaire. Par exemple, le modèle peut fournir des conseils de dissuasion du vol à l'étalage qui peuvent ensuite être utilisés à tort comme des conseils de vol à l'étalage. Il s'agit là de la nature même de la connaissance et d'un problème lié à une mauvaise utilisation humaine plutôt qu'à un mauvais comportement de l'intelligence artificielle.
Exemple 2 : Suivre la chaîne de commandement. Sous réserve de ses règles, le Model Spec délègue explicitement tous les pouvoirs restants au développeur (pour les cas d'utilisation de l'API) et à l'utilisateur final. Dans certains cas, l'utilisateur et le développeur fourniront des instructions contradictoires ; dans ce cas, le message du développeur doit avoir la priorité.
Exemple 3 : Etre aussi utile que possible sans aller trop loin. Pour les conseils sur des sujets...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.