Lors d'une récente interview, Mira Murati a déclaré que son entreprise discutait constamment avec les gouvernements, les régulateurs et d'autres organisations afin de convenir d'un certain niveau de normes.
"Nous avons travaillé dans ce sens ces deux dernières années avec les développeurs de grands modèles de langage en nous alignant sur certaines normes de sécurité de base pour le déploiement de ces modèles", a déclaré M. Murati. "Mais je pense qu'il reste encore beaucoup à faire. Les régulateurs gouvernementaux devraient certainement être très impliqués.
M. Murati a évoqué en particulier l'approche de l'OpenAI en matière d'AGI avec des "capacités de niveau humain".
La vision spécifique d'OpenAI à ce sujet est de la construire en toute sécurité et de trouver comment la construire d'une manière qui soit alignée sur les intentions humaines, de sorte que les systèmes d'IA fassent les choses que nous voulons qu'ils fassent, et qu'ils profitent au maximum au plus grand nombre de personnes possible, idéalement à tout le monde.
Q : Existe-t-il une voie entre des produits comme le GPT-4 et l'AGI ?
R : Nous sommes encore loin d'un système AGI sûr, fiable et aligné. Pour y parvenir, nous disposons de quelques vecteurs importants. Du point de vue de la recherche, nous essayons de construire des systèmes qui ont une solide compréhension du monde, semblable à celle que nous avons en tant qu'humains. Des systèmes comme le GPT-3 ont d'abord été formés uniquement sur des données textuelles, mais notre monde n'est pas fait que de texte, il y a aussi des images, puis nous avons commencé à introduire d'autres modalités.
L'autre angle d'attaque a été la mise à l'échelle de ces systèmes afin d'accroître leur généralité. Avec le GPT-4, nous avons affaire à un système beaucoup plus performant, en particulier du point de vue du raisonnement sur les choses. Cette capacité est essentielle. Si le modèle est suffisamment intelligent pour comprendre une direction ambiguë ou une direction de haut niveau, vous pouvez alors trouver comment lui faire suivre cette direction. Mais s'il ne comprend même pas cet objectif ou cette direction de haut niveau, il est beaucoup plus difficile de l'aligner. Il ne suffit pas de construire cette technologie dans le vide d'un laboratoire. Nous avons vraiment besoin de ce contact avec la réalité, avec le monde réel, pour voir où sont les faiblesses, où sont les points de rupture, et essayer de le faire d'une manière contrôlée et à faible risque et d'obtenir autant de retour d'information que possible.
L'autre angle d'attaque a été la mise à l'échelle de ces systèmes afin d'accroître leur généralité. Avec le GPT-4, nous avons affaire à un système beaucoup plus performant, en particulier du point de vue du raisonnement sur les choses. Cette capacité est essentielle. Si le modèle est suffisamment intelligent pour comprendre une direction ambiguë ou une direction de haut niveau, vous pouvez alors trouver comment lui faire suivre cette direction. Mais s'il ne comprend même pas cet objectif ou cette direction de haut niveau, il est beaucoup plus difficile de l'aligner. Il ne suffit pas de construire cette technologie dans le vide d'un laboratoire. Nous avons vraiment besoin de ce contact avec la réalité, avec le monde réel, pour voir où sont les faiblesses, où sont les points de rupture, et essayer de le faire d'une manière contrôlée et à faible risque et d'obtenir autant de retour d'information que possible.
R : Nous pensons aux interventions à chaque étape. Nous expurgeons certaines données de la formation initiale sur le modèle. Avec DALL-E, nous voulions réduire les biais nuisibles que nous observions... Dans la formation au modèle, avec ChatGPT en particulier, nous avons fait de l'apprentissage par renforcement avec un retour d'information humain pour aider le modèle à s'aligner davantage sur les préférences humaines. En fait, nous essayons d'amplifier ce qui est considéré comme un bon comportement et de désamplifier ce qui est considéré comme un mauvais comportement.
Il est difficile de concevoir des mécanismes de sécurité dans des systèmes complexes... Les mécanismes de sécurité et de coordination de ces systèmes d'IA et de tout système technologique complexe sont difficiles et nécessitent beaucoup de réflexion, d'exploration et de coordination entre les acteurs.
Source : Associated Press
Et vous ?
Que pensez-vous des avis de Mira Murati ?
Quel est votre opinion sur la règlementation de l'IA ?
Voir aussi :
La Chambre de commerce des États-Unis demande une réglementation de l'IA, pour que l'IA ne nuise pas à la croissance ou ne devienne pas un risque pour la sécurité
Le Vatican, IBM et Microsoft ensemble pour appeler à une réglementation de la reconnaissance faciale, et de façon générale, à une régulation de l'IA pour le bien de l'humanité
« Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk, dont une société développe des puces à insérer dans le cerveau pour contrer l'IA