La Maison Blanche a annoncé jeudi une batterie de mesures visant à promouvoir le développement d'une IA responsable. Elles comprennent un investissement de 140 millions de dollars de la National Science Foundation pour lancer sept nouveaux instituts nationaux de recherche sur l'IA (NAIR), ce qui portera à 25 le nombre total d'installations dédiées à l'IA dans le pays. La Maison Blanche soutiendra également un événement lors de la conférence Defcon cet été, qui mettra les experts au défi de découvrir les failles des systèmes d'IA génératifs. L'annonce a été faite quelques heures avant une réunion de la Maison Blanche avec des PDG de l'industrie.
Les chatbots d'IA - tels que ChatGPT, Bard et Claude - ont suscité de nouveaux espoirs quant au potentiel de l'IA, mais aussi de nouvelles craintes. L'IA générative peut potentiellement produire une série de nouveaux risques commerciaux tels que la désinformation, le plagiat, les violations de droits d'auteur et les contenus toxiques. Le manque de transparence et le risque de déplacement des travailleurs sont d'autres problèmes que les entreprises pourraient avoir à résoudre. Jeudi, l'administration Biden a décidé de se joindre au concert d'inquiétudes en annonçant qu'elle soutiendra un exercice de piratage de masse lors de la conférence sur la sécurité Defcon.
La conférence se tiendra cet été et l'initiative permettra de sonder les systèmes d'IA générative de Google, Microsoft, Nvidia, OpenAI et d'autres entreprises. Le bureau de la politique scientifique et technologique de la Maison-Blanche a également indiqué que 140 millions de dollars seraient consacrés au lancement de sept nouveaux instituts nationaux de recherche sur l'IA, axés sur le développement d'une IA éthique et transformatrice pour le bien public. L'Office of Management and Budget (OMB) a également indiqué jeudi qu'il publierait cet été un ensemble de règles sur la manière dont le gouvernement fédéral devrait utiliser la technologie de l'IA.
« Ces mesures s'appuient sur les solides antécédents de l'administration en matière de leadership pour garantir que la technologie améliore la vie du peuple américain, et ouvrent de nouvelles voies dans les efforts continus du gouvernement fédéral pour promouvoir une approche cohérente et complète des risques et des opportunités liés à l'IA », indique le communiqué de presse de l'administration. Le communiqué de la Maison Blanche ne précise pas les détails sur l'étude des chatbots d'IA cet été, mais indique que "cela permettra à ces modèles d'être évalués de manière approfondie par des milliers de partenaires communautaires et d'experts en IA".
Des points seront attribués pour encourager les participants à rechercher un large éventail de bogues ou de comportements répréhensibles de la part des systèmes d'IA. L'événement sera organisé en collaboration avec Microsoft, l'organisation à but non lucratif SeedAI, AI Vulnerability Database et Humane Intelligence, une association à but non lucratif créée par Rumman Chowdhury, spécialiste des données et des sciences sociales. Elle a auparavant dirigé un groupe de Twitter travaillant sur l'éthique et l'apprentissage automatique, et a organisé un concours qui a permis de découvrir des biais dans le recadrage automatique des photos sur le réseau social.
L'annonce a précédé une réunion de la Maison Blanche, dirigée par la vice-présidente Kamala Harris, avec les directeurs généraux d'Alphabet, d'Anthropic, de Microsoft et d'OpenAI pour discuter des risques de l'IA. « La réunion s'inscrit dans le cadre d'un effort plus large et continu pour s'engager avec les défenseurs, les entreprises, les chercheurs, les organisations de défense des droits civils, les organisations à but non lucratif, les communautés, les partenaires internationaux et d'autres sur les questions critiques liées à l'IA », indique le communiqué. La Maison Blanche estime que les entreprises ont le devoir d'aider à réduire les risques liés à l'IA.
L'intervention de la Maison Blanche dans le domaine de l'IA intervient alors que l'appétit pour une réglementation de cette technologie s'accroît dans le monde entier. Au sein du Parlement de l'Union européenne (UE), les législateurs négocient les dernières mises à jour d'une vaste loi sur l'IA qui restreindra, voire interdira, certaines utilisations de l'IA, en ajoutant notamment la couverture de l'IA générative. Les législateurs brésiliens envisagent également une réglementation visant à protéger les droits de l'homme à l'ère de l'IA générative. Le mois dernier, le gouvernement chinois a annoncé un projet de réglementation de l'IA générative.
L'UE pourrait introduire prochainement une réglementation très stricte en ce qui concerne le développement et le déploiement des chatbots d'IA. Selon des sources au fait du projet de loi, les nouvelles règles proposeraient d'obliger les fabricants de chatbots d'IA à révéler s'ils utilisent du matériel protégé par des droits d'auteur. Cela pourrait permettre aux créateurs de contenu de jouir d'une redevance de droit d'auteur. L'IA générative a donné lieu à de nombreuses plaintes en matière de violation de droit d'auteur et l'UE veut y mettre un terme. À mesure que la loi sur l'IA évolue, les chatbots pourraient faire l'objet d'une surveillance accrue par l'UE.
À Washington, la semaine dernière, le sénateur démocrate Michael Bennett a présenté un projet de loi visant à créer un groupe de travail sur l'IA chargé de protéger la vie privée et les droits civils des citoyens. Quatre agences américaines de régulation, dont la Federal Trade Commission et le ministère de la Justice, se sont engagées conjointement à utiliser les lois existantes pour protéger les droits des citoyens américains à l'ère de l'IA. Cette semaine, le bureau du sénateur démocrate Ron Wyden a confirmé son intention de tenter à nouveau de faire passer une loi appelée Algorithmic Accountability Act (loi sur la responsabilité des algorithmes).
Elle obligerait les entreprises à évaluer leurs algorithmes et à divulguer l'utilisation d'un système automatisé. Outre les entreprises qui développent l'IA à des fins lucratives, les agences fédérales des États-Unis ont du pain sur la planche en ce qui concerne leur propre utilisation de l'IA. Une étude réalisée en décembre 2022 par l'université de Stanford a révélé que pratiquement aucune agence fédérale n'a répondu favorablement à un décret de l'ancienne administration Trump visant à rendre publics les plans en matière d'IA et que seule la moitié d'entre elles ont partagé un inventaire de la manière dont elles utilisent l'IA.
Source : la Maison Blanche
Et vous ?
Quel est votre avis sur le sujet ?
Voir aussi
Les États-Unis commencent à étudier la possibilité de réglementer les systèmes d'IA comme ChatGPT pour garantir que ces technologies soient légales, efficaces, éthiques, sûres et dignes de confiance
Les États-Unis lancent une initiative sur l'utilisation de l'IA à des fins militaire, dans un contexte où la Chine ambitionne de devenir la super puissance du monde en matière d'IA
L'UE envisagerait des règles très strictes pour les chatbots dans le cadre de son projet de loi sur l'IA, elle devrait exiger la divulgation de l'utilisation du matériel protégé par le droit d'auteur
La Maison Blanche lance un plan pour promouvoir l'IA éthique et demande l'aide des hackers pour détecter les failles des chatbots d'IA,
Elle prendra également l'avis des PDG des entreprises d'IA
La Maison Blanche lance un plan pour promouvoir l'IA éthique et demande l'aide des hackers pour détecter les failles des chatbots d'IA,
Elle prendra également l'avis des PDG des entreprises d'IA
Le , par Bill Fassinou
Une erreur dans cette actualité ? Signalez-nous-la !