Connue pour son grand modèle de langage ChatGPT, OpenAI est une organisation américaine de recherche en intelligence artificielle (IA). Sa mission est de développer une intelligence générale artificielle (AGI) "sûre et bénéfique", qu'elle définit comme "des systèmes hautement autonomes qui surpassent les humains dans la plupart des travaux économiquement utiles".
Fondée par d'anciens membres d'OpenAI, Anthropic est également une startup américaine d'intelligence artificielle (IA). Elle recherche et développe l'IA pour "étudier leurs propriétés de sécurité à la frontière technologique" et utiliser cette recherche pour déployer des modèles sûrs et fiables pour le public. Anthropic a développé une famille de grands modèles de langage (LLM) nommée Claude en tant que concurrent du ChatGPT d'OpenAI.
Les deux entreprises OpenAI et Anthropic ont signé des accords avec le gouvernement américain pour la recherche, le test et l'évaluation de leurs modèles d'intelligence artificielle (IA), a annoncé l'Institut américain pour la sécurité de l'intelligence artificielle (U.S. Artificial Intelligence Safety Institute).
Ces accords, les premiers du genre, interviennent à un moment où les entreprises sont confrontées à un examen réglementaire de l'utilisation sûre et éthique des technologies d'IA. Les législateurs californiens, par exemple, viennent de voter un projet de loi visant à réglementer largement la manière dont l'intelligence artificielle est développée et déployée dans l'État.
"Une IA sûre et digne de confiance est cruciale pour l'impact positif de la technologie. Notre collaboration avec l'Institut américain de sécurité de l'IA tire parti de sa vaste expertise pour tester rigoureusement nos modèles avant leur déploiement à grande échelle", a déclaré Jack Clark, cofondateur et responsable des politiques chez Anthropic, soutenu par Amazon et Alphabet, société mère de Google.
En vertu de ces accords, l'Institut américain de sécurité de l'IA aura accès aux principaux nouveaux modèles d'OpenAI et d'Anthropic avant et après leur publication. Les accords permettront également de mener des recherches en collaboration afin d'évaluer les capacités des modèles d'IA et les risques qui y sont associés.
"Nous pensons que l'institut a un rôle essentiel à jouer dans la définition du leadership américain en matière de développement responsable de l'intelligence artificielle et nous espérons que notre travail commun offrira un cadre sur lequel le reste du monde pourra s'appuyer", a déclaré Jason Kwon, directeur de la stratégie chez OpenAI, le fabricant de ChatGPT.
"Ces accords ne sont qu'un début, mais ils constituent une étape importante dans notre travail de gestion responsable de l'avenir de l'intelligence artificielle", a déclaré Elizabeth Kelly, directrice de l'Institut américain de sécurité de l'IA.
L'institut, qui fait partie du National Institute of Standards and Technology (NIST) du ministère américain du commerce, collaborera également avec le U.K. AI Safety Institute et fournira aux entreprises un retour d'information sur les améliorations potentielles en matière de sécurité. L'Institut américain de sécurité de l'IA a été créé l'année dernière dans le cadre d'un décret de l'administration du président Joe Biden visant à évaluer les risques connus et émergents des modèles d'intelligence artificielle.
Source : U.S. Artificial Intelligence Safety Institute
Et vous ?
Pensez-vous que ces accords sont crédibles ou pertinents ?
Quel est votre avis sur le sujet ?
Voir aussi :
Le projet de loi controversé sur l'IA en Californie est adopté par l'assemblée législative et attend la signature du gouverneur, alors que Google et OpenAI s'y opposent fermement
Exode chez OpenAI : près de la moitié du personnel chargé de la sécurité de l'AGI a quitté l'entreprise. Sam Altman, qui a réclamé une réglementation de l'IA, s'y oppose lorsqu'elle est implémentée
Anthropic cherche à financer une génération nouvelle et plus complète de benchmarks d'IA. Une initiative novatrice pour développer les évaluations des modèles d'IA par des tiers