IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI dévoile « Model Spec » pour explorer le comportement idéal de l'IA
Une tentative d'établir des règles que ses chatbots IA devraient suivre, et des principes par défaut qui devraient être préservés

Le , par Anthony

10PARTAGES

14  0 
OpenAI, le créateur de ChatGPT, a présenté le projet de « Model Spec », qui énonce les règles que ses systèmes d'IA devraient suivre, ainsi que certains principes et objectifs par défaut auxquels les modèles d'IA devraient se conformer, afin d'aider les utilisateurs/développeurs finaux, de profiter à l'humanité et de donner une bonne image d'OpenAI.

Placé dans des catégories qui couvrent les dommages potentiels que les systèmes d'IA pourraient causer ainsi que l'aide potentielle qu'ils pourraient apporter, Model Spec examine les façons dont les chatbots pourraient répondre aux utilisateurs afin d'obtenir des résultats sûrs qui n'enfreignent pas les lois, ne trompent pas le système d'IA et ne blessent pas d'autres personnes.

Par exemple, Model Spec suggère comment les chatbots pourraient répondre légalement et éthiquement aux questions des utilisateurs concernant l'exécution de crimes, la divulgation de données personnelles (doxxing), le suicide et/ou l'utilisation de contenus protégés par des droits d'auteur ou payants.


OpenAI a également souligné que les modèles ne devraient pas générer de contenu considéré comme non sûr pour le travail (NSFW), mais a déclaré qu'elle continuait d'explorer ce domaine.

« Nous pensons que les développeurs et les utilisateurs devraient avoir la possibilité d'utiliser nos services comme ils l'entendent, tant qu'ils respectent nos politiques d'utilisation. Nous étudions actuellement la possibilité de fournir de manière responsable la possibilité de générer du contenu NSFW dans des contextes adaptés à l'âge par le biais de l'API et de ChatGPT. Nous sommes impatients de mieux comprendre les attentes des utilisateurs et de la société concernant le comportement des modèles dans ce domaine », a déclaré OpenAI dans son projet de Model Spec.

Dans le même temps, le Model Spec a souligné la nécessité d'aider les utilisateurs sans déni excessif, de partir du principe que leurs intentions sont bonnes et d'apporter des réponses sans essayer de faire changer les gens d'avis.

En réponse à un utilisateur théorique affirmant que la Terre était plate, OpenAI a recommandé une réponse du chatbot qui présentait sa réponse plus scientifique et refusait ensuite d'argumenter avec l'utilisateur, plutôt qu'une réponse qui n'arrêtait pas d'être en désaccord avec l'utilisateur et insistait sur le fait que la Terre n'était pas plate.

OpenAI a invité le public à envoyer ses commentaires concernant Model Spec, qui sera publiquement disponible sur le site de l'entreprise, au cours des deux prochaines semaines.

Le créateur de ChatGPT s'adressera également aux décideurs politiques et aux experts pour connaître leur point de vue sur le projet.

Les entreprises d'IA telles que OpenAI, Microsoft, Google et Meta ont été critiquées pour la façon dont leurs chatbots auraient été formés sur des données protégées par le droit d'auteur, ainsi que pour les craintes que leurs outils encore expérimentaux ne permettent de commettre des délits et de diffuser de fausses informations.

La description de Model Spec par OpenAI est présentée ci-dessous :

Afin d'approfondir le débat public sur la manière dont les modèles d'IA devraient se comporter, OpenAI présente le Model Spec, son approche visant à définir le comportement souhaité pour les modèles.

OpenAI déclare :
Nous partageons une première version de Model Spec, un nouveau document qui spécifie comment nous voulons que nos modèles se comportent dans l'API OpenAI et ChatGPT. Nous faisons cela parce que nous pensons qu'il est important que les gens puissent comprendre et discuter des choix pratiques impliqués dans le façonnement du comportement du modèle. Le Model Spec reflète la documentation existante que nous avons utilisée chez OpenAI, notre recherche et notre expérience dans la conception du comportement du modèle, et le travail en cours pour informer le développement de futurs modèles. Il s'agit d'une continuation de notre engagement continu à améliorer le comportement du modèle en utilisant l'apport humain, et complète notre travail d'alignement collectif et notre approche systématique plus large de la sécurité du modèle.
Façonner le comportement souhaité du modèle

Le comportement des modèles, c'est-à-dire la manière dont ils réagissent aux données fournies par les utilisateurs (ton, personnalité, durée de la réponse, etc.), est essentiel pour la manière dont les humains interagissent avec les capacités de l'IA. Le modelage de ce comportement est une science encore naissante, car les modèles ne sont pas explicitement programmés, mais apprennent à partir d'un large éventail de données.

Le modelage du comportement du modèle doit également tenir compte d'un large éventail de questions, de considérations et de nuances, et souvent de divergences d'opinion. Même si un modèle est censé être largement bénéfique et utile aux utilisateurs, ces intentions peuvent être contradictoires dans la pratique. Par exemple, une société de sécurité peut vouloir générer des courriels d'hameçonnage comme données synthétiques pour former et développer des classificateurs qui protégeront ses clients, mais cette même fonctionnalité est nuisible si elle est utilisée par des escrocs.

Présentation de Model Spec

OpenAI partage une première version de Model Spec, un nouveau document qui spécifie son approche pour définir le comportement désiré du modèle et la façon dont elle évalue les compromis lorsque des conflits surviennent. Il rassemble la documentation utilisée chez OpenAI aujourd'hui, son expérience et la recherche en cours dans la conception du comportement du modèle, ainsi que des travaux plus récents, y compris des contributions d'experts du domaine, qui guident le développement de futurs modèles. Il n'est pas exhaustif et OpenAI s'attend à ce qu'il évolue au fil du temps. L'approche comprend :

1. Objectifs : Principes généraux qui donnent une orientation au comportement souhaité.
  • Aider le développeur et l'utilisateur final : Aider les utilisateurs à atteindre leurs objectifs en suivant les instructions et en fournissant des réponses utiles.
  • Bénéficier à l'humanité : Prendre en compte les avantages et les inconvénients potentiels pour un large éventail de parties prenantes, y compris les créateurs de contenu et le grand public, conformément à la mission d'OpenAI.
  • Donner une bonne image d'OpenAI : respecter les normes sociales et les lois en vigueur.

2. Règles : Instructions qui traitent de la complexité et contribuent à garantir la sécurité et la légalité.
  • Suivre la chaîne de commandement
  • Respecter les lois en vigueur
  • Ne pas fournir d'informations dangereuses
  • Respecter les créateurs et leurs droits
  • Protéger la vie privée des personnes
  • Ne pas répondre par un contenu NSFW (not safe for work)

3. Comportements par défaut : Lignes directrices cohérentes avec les objectifs et les règles, fournissant un modèle de gestion des conflits et montrant comment hiérarchiser et équilibrer les objectifs.
  • Présumer des meilleures intentions de l'utilisateur ou du développeur
  • Poser des questions de clarification si nécessaire
  • Être aussi utile que possible sans dépasser les limites
  • Répondre aux besoins différents du chat interactif et de l'utilisation programmatique.
  • Adopter un point de vue objectif
  • Encourager l'équité et la gentillesse, et découragez la haine.
  • Ne pas essayer de faire changer d'avis qui que ce soit
  • Exprimer son incertitude
  • Utiliser le bon outil pour le travail
  • Être minutieux mais efficace, tout en respectant les limites de temps


Sur la question de comment Model Spec sera utilisé, OpenAI répond :

Dans le prolongement de nos travaux sur l'alignement collectif et la sécurité des modèles, nous avons l'intention d'utiliser le Model Spec comme guide pour les chercheurs et les formateurs en IA qui travaillent sur l'apprentissage par renforcement à partir du feedback humain. Nous étudierons également dans quelle mesure nos modèles peuvent apprendre directement à partir de la spécification de modèle.
Ce qui vient ensuite

OpenAI considère ce travail comme faisant partie d'une conversation publique permanente sur la façon dont les modèles devraient se comporter, sur la façon dont le comportement souhaité des modèles est déterminé et sur la meilleure façon d'impliquer le grand public dans ces discussions. Au fur et à mesure que cette conversation se poursuivra, OpenAI cherchera des occasions de s'engager avec des parties prenantes représentatives au niveau mondial, y compris des décideurs politiques, des institutions de confiance et des experts du domaine, afin d'en tirer des enseignements :

  1. Comment ils comprennent l'approche et les objectifs individuels, les règles et les valeurs par défaut.
  2. S'ils soutiennent l'approche et les objectifs individuels, les règles et les valeurs par défaut.
  3. S'il existe des objectifs, des règles et des valeurs par défaut supplémentaires qui devraient être pris en compte.

Citation Envoyé par OpenAI
Nous attendons avec impatience les réactions de ces parties prenantes au fur et à mesure de l'avancement des travaux. Au cours des deux prochaines semaines, nous invitons également le grand public à nous faire part de ses commentaires sur les objectifs, les règles et les valeurs par défaut de Model Spec. Nous espérons que cela nous permettra d'obtenir des informations préliminaires alors que nous développons un processus solide de collecte et d'intégration des commentaires afin de nous assurer que nous travaillons de manière responsable à la réalisation de notre mission.

Au cours de l'année à venir, nous ferons le point sur les modifications apportées au modèle, sur notre réaction aux commentaires reçus et sur l'évolution de nos recherches visant à modifier le comportement des modèles.
Exemples d'application de Model Spec à divers cas d'utilisation

Règles : Instructions qui abordent la complexité et contribuent à garantir la sécurité et la légalité.

Exemple 1 : Respecter les lois applicables. Le modèle ne doit pas promouvoir, faciliter ou s'engager dans une activité illégale.

Note : OpenAI reconnaît que la question de la légalité est elle-même susceptible d'être plus complexe dans de nombreux cas, en fonction du contexte, par exemple les juridictions dans lesquelles le développeur et l'utilisateur sont situés.


Parfois, l'assistant peut fournir une réponse dans un cadre différent qui peut conduire à un résultat similaire. Par exemple, le modèle peut fournir des conseils de dissuasion du vol à l'étalage qui peuvent ensuite être utilisés à tort comme des conseils de vol à l'étalage. Il s'agit là de la nature même de la connaissance et d'un problème lié à une mauvaise utilisation humaine plutôt qu'à un mauvais comportement de l'intelligence artificielle.


Exemple 2 : Suivre la chaîne de commandement. Sous réserve de ses règles, le Model Spec délègue explicitement tous les pouvoirs restants au développeur (pour les cas d'utilisation de l'API) et à l'utilisateur final. Dans certains cas, l'utilisateur et le développeur fourniront des instructions contradictoires ; dans ce cas, le message du développeur doit avoir la priorité.


Exemple 3 : Etre aussi utile que possible sans aller trop loin. Pour les conseils sur des sujets sensibles et/ou réglementés (par exemple, juridiques, médicaux et financiers), l'assistant doit fournir à l'utilisateur des informations sans donner de conseils réglementés.

Toute clause de non-responsabilité ou de divulgation doit être concise. Il doit clairement exprimer ses limites, indiquer qu'il ne peut fournir les conseils réglementés demandés et recommander à l'utilisateur de consulter un professionnel le cas échéant.

Note : ChatGPT dispose d'une clause de non-responsabilité générale qui demande aux utilisateurs de vérifier les faits importants, indépendamment des réponses du modèle. L'utilisateur ne doit pas se fier uniquement à la réponse du modèle dans ce type de situation.


Exemple 4 : Poser des questions de clarification si nécessaire. Dans les environnements interactifs, où l'assistant parle à l'utilisateur en temps réel, il doit poser des questions de clarification, plutôt que de deviner, lorsque la tâche ou la requête de l'utilisateur n'est pas claire.


Exemple 5 : Ne pas essayer de faire changer d'avis qui que ce soit. L'assistant doit s'efforcer d'informer, et non d'influencer, tout en faisant en sorte que l'utilisateur se sente écouté et que son opinion soit respectée.

Dans certains cas extrêmes, la présentation des faits peut entrer en conflit avec l'objectif explicite de ne pas essayer de changer le point de vue de l'utilisateur. Dans ce cas, le modèle doit présenter les faits tout en reconnaissant qu'en fin de compte, l'utilisateur peut croire ce qu'il veut croire.

Note : OpenAI est particulièrement intéressé par les commentaires sur ce principe, car il soulève des questions importantes sur la responsabilité du modèle pour éviter de renforcer la désinformation, et sur la manière dont la factualité doit être déterminée.


Source : "Introducing the Model Spec" (OpenAI)

Et vous ?

Quel est votre avis sur le sujet ?
Trouvez-vous cette initiative d'OpenAI crédible ou pertinente ?

Voir aussi :

OpenAI publie ses intentions dans le domaine de la sécurité en Intelligence artificielle, cela sera-t'il suffisant ?

OpenAI dévoile son "Cadre de préparation", une initiative pour assurer la sécurisation du développement de ses modèles d'IA d'avant-garde, et systématiser la réflexion sur la sécurité

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Mingolito
Membre extrêmement actif https://www.developpez.com
Le 10/05/2024 à 14:41
Citation Envoyé par nasserk Voir le message
Bientot comment violer la loi de maniére responsable
Tout est dans le titre, c'est du n'importe quoi
C'est pas généralement "illégal" la pornographie, juste dans certains pays.

Certains disent que les actrices sont sont maltraitées, et c'est pas faux, l'IA va résoudre ce problème, plus besoin d'actrices porno...

Si j'ai bien compris ça va mettre aussi au chômage de nombreuses personnes sur Onlyfan, il y a déjà des comptes Onlyfan gérés par IA et d'après ce que j'en lis sur le net elles font bien mieux que les modèles réels (je précise que j'y suis jamais allé sur onlyfan).
C'est peut être pas plus mal, ces personnes payées à prix d'or juste pour s'exhiber devront se trouver désormais un vrai travail, et du vrai travail il y en a plein, et il n'y a pas assez de candidats, car travailler c'est fatiguant...
5  0 
Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 10/05/2024 à 10:20
Tout ce blabla n'a pas beaucoup d'intérêt, car il existe plusieurs modèles open-source, et ce n'est que le début.
3  0 
Avatar de pierre-y
Membre chevronné https://www.developpez.com
Le 10/05/2024 à 11:50
"de manière responsable du contenu pornographique"
^^ la phrase me faire rire. Le porno responsable ça c'est vendeur.
1  0 
Avatar de nasserk
Membre habitué https://www.developpez.com
Le 10/05/2024 à 13:25
Tout est dans le titre, c'est du n'importe quoi
1  4