Un projet de loi en Californie, visant à réguler le développement des modèles d’intelligence artificielle (IA), a déclenché une vive controverse à Silicon Valley. Le projet de loi, connu sous le nom de "Safe and Secure Innovation for Frontier Artificial Intelligence Models Act", propose des mesures strictes pour garantir la sécurité des modèles d’IA avancés. Le projet de loi imposerait davantage de responsabilités, notamment des tests de sécurité et la mise en œuvre de mesures de protection. Les entreprises doivent également accepter de se soumettre à des audits par des tiers.
Les législateurs californiens ont adopté ce projet de loi très controversé sur la sécurité de l'IA, qui devait encore faire l'objet d'un vote avant d'être remis entre les mains du gouverneur. Le gouverneur Gavin Newsom a jusqu'au 30 septembre pour décider de le promulguer ou d'y opposer son veto.
Les entreprises technologiques qui développent l'IA générative - capable de répondre à des messages sous forme de texte, d'images ou de sons entièrement formés et d'exécuter des tâches répétitives avec un minimum d'intervention - se sont largement opposées à cette loi, appelée SB 1047, estimant qu'elle pourrait pousser les entreprises d'IA à quitter l'État et à entraver l'innovation.
Certains démocrates du Congrès américain, dont la représentante Nancy Pelosi, s'y sont également opposés. Parmi les partisans de cette mesure figure le PDG de Tesla, Elon Musk, qui dirige également une entreprise d'IA appelée xAI et a déclaré qu'il soutenait le projet de loi.
La mesure impose des tests de sécurité pour un grand nombre des modèles d'IA les plus avancés dont le développement coûte plus de 100 millions de dollars ou qui nécessitent une quantité définie de puissance de calcul. Les développeurs de logiciels d'IA opérant dans l'État doivent également présenter des méthodes permettant de désactiver les modèles d'IA en cas de dérapage, ce qui revient à mettre en place un interrupteur d'arrêt.
Le projet de loi donne également au procureur général de l'État le pouvoir d'intenter des poursuites si les développeurs ne se conforment pas à la loi, en particulier en cas de menace permanente, par exemple si l'IA prend le contrôle de systèmes gouvernementaux tels que le réseau électrique. En outre, le projet de loi exige des développeurs qu'ils engagent des auditeurs tiers pour évaluer leurs pratiques en matière de sécurité et offre des protections supplémentaires aux dénonciateurs qui dénoncent les abus de l'IA.
L'auteur du projet de loi, le sénateur démocrate Scott Wiener, représente la ville de San Francisco, où se trouvent OpenAI et de nombreuses start-ups qui développent ce puissant logiciel. Il a déclaré qu'il était nécessaire de légiférer pour protéger le public avant que les progrès de l'IA ne deviennent trop lourds ou incontrôlables.
Martin Casado, associé général de la société de capital-risque Andreessen Horowitz, a déclaré avant le vote qu'il espérait que M. Newsom opposerait son veto. "Il s'agit de l'opposition la plus large et la plus bipartisane que j'aie jamais vue", a-t-il déclaré.
Google d'Alphabet, OpenAI, soutenu par Microsoft, et Meta Platforms ont exprimé leurs préoccupations dans des lettres adressées à M. Wiener. Anthropic, soutenu par Amazon, a déclaré que les avantages du projet de loi l'emportaient probablement sur les coûts, bien qu'il ait ajouté que certains aspects semblaient encore préoccupants ou ambigus.
Et vous ?
Pensez-vous que ce projet de loi est crédible ou pertinent ?
Quel est votre avis sur la suite de cette affaire ?
Voir aussi :
Le projet de loi californien sur l'IA menace-t-il l'innovation ou protège-t-il la société ? Google, Meta et OpenAI s'y opposent, arguant qu'il pourrait freiner l'innovation, tandis qu'Elon Musk le soutient
Les Big Tech (GAFAM) veulent réglementer l'IA, mais les autres entrepreneurs sont sceptiques. Selon eux leur réelle volonté serait juste de geler le marché de l'IA pour conserver leur monopole
AI Act : les nouvelles règles européennes en matière d'intelligence artificielle entrent en vigueur. L'objectif déclaré est d'encourager le développement et l'adoption de systèmes IA sûrs et fiables en UE
Exode chez OpenAI : près de la moitié du personnel chargé de la sécurité de l'AGI a quitté l'entreprise. Sam Altman, qui a réclamé une réglementation de l'IA, s'y oppose lorsqu'elle est implémentée