Le projet de loi sur la sécurité de l'IA, SB 1047, imposerait davantage de responsabilités à tout développeur dépensant plus de 100 millions de dollars pour construire un modèle d'IA. Les exigences comprennent des tests de sécurité, la mise en œuvre de mesures de protection et la possibilité pour le procureur général de l'État de prendre des mesures à l'encontre du développeur de tout modèle d'IA qui cause un « préjudice grave », tel que des pertes massives ou des incidents entraînant des dommages d'une valeur de 500 millions de dollars ou plus.
Les entreprises doivent accepter de se soumettre à des audits par des tiers et mettre en place un dispositif permettant de désactiver la technologie à tout moment. Le projet de loi propose également des protections pour les dénonciateurs.
Le sénateur de l'État de Californie Scott Wiener, coauteur du projet de loi, a accusé certains opposants de « semer la peur » pour tenter d'empêcher l'adoption de la législation de l'État.
« Il y a eu beaucoup de drames, de déclarations dramatiques et d'inexactitudes de la part de certains opposants », a déclaré Wiener. « Les grands laboratoires se sont engagés à plusieurs reprises et de manière véhémente à effectuer des évaluations de la sécurité de leurs grands modèles, et c'est ce que ce projet de loi exige. Il s'agit de prendre un engagement volontaire et de le rendre obligatoire ».
OpenAI entre dans la danse
OpenAI a critiqué le projet de loi qui vise à garantir que l'intelligence artificielle puissante soit déployée en toute sécurité et a suggéré que de nouveaux contrôles menaceraient sa croissance dans l'État, se joignant à une frénésie de lobbying de dernière minute par les investisseurs et les groupes d'IA pour bloquer la législation.
Le projet de loi SB 1047 menace « le statut unique de la Californie en tant que leader mondial de l'intelligence artificielle », a écrit Jason Kwon, directeur de la stratégie de l'entreprise, dans une lettre adressée à Scott Wiener, le sénateur de l'État de Californie à l'origine du projet de loi. Il ajoute que cela pourrait « ralentir le rythme de l'innovation et inciter les ingénieurs et les entrepreneurs californiens de classe mondiale à quitter l'État à la recherche de meilleures opportunités ailleurs ».
Le projet de loi SB 1047 a divisé la Silicon Valley. Si la nécessité de limiter les risques liés aux nouveaux modèles d'IA puissants est largement admise, les critiques ont fait valoir que les propositions de Wiener étoufferaient les start-ups, profiteraient aux rivaux américains et compromettraient la position centrale de la Californie dans l'essor de l'IA.
OpenAI est la dernière start-up à s'opposer à des éléments du projet de loi, et la plus importante, en grande partie grâce à la popularité de son chatbot ChatGPT et à un engagement de 13 milliards de dollars de la part de son partenaire Microsoft. OpenAI soutient les dispositions visant à garantir que les systèmes d'IA sont développés et déployés en toute sécurité, mais affirme dans la lettre que la législation devrait venir du gouvernement fédéral, et non des États individuels.
Un projet de loi « bien intentionné mais mal informé », selon Nancy Pelosi
Dans une réponse mercredi, Wiener a souligné qu'OpenAI ne « critique pas une seule disposition du projet de loi ». Il ajoute que l'affirmation de la société selon laquelle les entreprises quitteront la Californie à cause du SB 1047 « n'a aucun sens étant donné que le SB 1047 n'est pas limité aux entreprises ayant leur siège en Californie ». En effet, le projet de loi SB 1047 concerne tous les développeurs de modèles d'IA qui exercent leurs activités en Californie et qui atteignent certains seuils de taille. En d'autres termes, qu'une entreprise d'IA soit basée à San Jose ou à San Antonio, si elle laisse les Californiens utiliser ses produits, elle sera soumise à ces restrictions.
Wiener a également déclaré qu'il était d'accord pour que le gouvernement fédéral prenne l'initiative, mais qu'il était « sceptique » quant à la volonté du Congrès d'agir. Il a également critiqué « l'argument éculé » selon lequel les jeunes entreprises technologiques se délocaliseraient si le projet de loi était adopté et a déclaré que les entreprises basées en dehors de l'État devraient toujours se conformer au projet de loi pour faire des affaires au niveau local.
L'assemblée de l'État de Californie devrait voter sur le projet de loi d'ici la fin de la semaine. S'il est adopté, le gouverneur Gavin Newsom décidera alors de la signer ou d'y opposer son veto.
Les groupes technologiques et les investisseurs de la Silicon Valley, dont Anthropic, Andreessen Horowitz et YCombinator, ont intensifié leur campagne de lobbying contre les propositions de Wiener en faveur d'un cadre de sécurité strict. Nancy Pelosi, ancienne présidente de la Chambre des représentants et représentante de la Californie, a également publié la semaine dernière une déclaration d'opposition au projet de loi, le qualifiant de « bien intentionné mais mal informé ».
Parmi les éléments les plus controversés des propositions initiales du sénateur figuraient l'obligation pour les entreprises d'IA de garantir à un nouvel organisme public qu'elles ne développeront pas de modèles dotés d'une « capacité dangereuse » et de créer un « interrupteur d'arrêt » pour désactiver leurs modèles puissants.
Les opposants ont affirmé que le projet de loi se concentrait sur des risques hypothétiques et ajoutait un risque de responsabilité « extrême » pour les fondateurs.
Le soutien au projet de loi
La semaine dernière, le projet de loi a été modifié pour assouplir certaines de ces exigences, notamment en limitant les responsabilités civiles qu'il avait initialement imposées aux développeurs d'IA et en réduisant le champ d'application de ces règles.
Toutefois, les critiques affirment que le projet de loi impose toujours aux jeunes entreprises des exigences onéreuses et parfois irréalistes. Lundi, Anna Eshoo et Zoe Lofgren, membres de la Chambre des représentants des États-Unis, ont écrit dans une lettre à Robert Rivas, président de l'assemblée californienne, qu'il y avait « encore des problèmes substantiels avec la structure sous-jacente du projet de loi », appelant plutôt à « se concentrer sur les règles fédérales pour contrôler les outils physiques nécessaires à la création de ces menaces physiques ».
Malgré les critiques formulées par d'éminents universitaires spécialisés dans l'IA, tels que Fei-Fei Li et Andrew Ng, de Stanford, qui ont dirigé des projets d'IA chez Google (Alphabet) et Baidu (Chine), le projet de loi a reçu le soutien de certains « parrains de l'IA », tels que Geoffrey Hinton, de l'université de Toronto, et Yoshua Bengio, professeur d'informatique à l'université de Montréal.
« En résumé, le SB 1047 est un projet de loi très raisonnable : SB 1047 est un projet de loi très raisonnable qui demande aux grands laboratoires d'IA de faire ce qu'ils se sont déjà engagés à faire, à savoir tester leurs grands modèles pour détecter les risques de sécurité catastrophiques », a écrit Wiener mercredi.
Lundi, Elon Musk (propriétaire de la grande entreprise de modèles d'IA xAI) s'est prononcé en faveur du projet de loi, en postant sur X « C'est une décision difficile et qui va contrarier certaines personnes, mais, tout bien considéré, je pense que la Californie devrait probablement adopter le projet de loi SB 1047 sur la sécurité de l'IA. Depuis plus de 20 ans, je plaide en faveur d'une réglementation de l'IA, tout comme nous réglementons tout produit/technologie présentant un risque potentiel pour le public ».
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">This is a tough call and will make some people upset, but, all things considered, I think California should probably pass the SB 1047 AI safety bill.<br><br>For over 20 years, I have been an advocate for AI regulation, just as we regulate any product/technology that is a potential risk…</p>— Elon Musk (@elonmusk) <a href="https://twitter.com/elonmusk/status/1828205685386936567?ref_src=twsrc%5Etfw">August 26, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]
Un équilibre délicat
Le débat autour du projet de loi SB 1047 met en lumière le défi de trouver un équilibre entre la promotion de l’innovation et la garantie de la sécurité. Alors que certains voient dans ce projet de loi une menace pour l’innovation, d’autres y voient une étape cruciale pour prévenir les risques potentiels associés à l’IA. Les partisans du projet de loi soutiennent que sans régulation, les modèles d’IA pourraient causer des dommages irréparables, tant sur le plan individuel que sociétal.
Un contexte réglementaire plus large
Le débat sur la réglementation de l'IA ne se limite pas à la Californie. Les gouvernements du monde entier s'efforcent de gérer les progrès rapides de la technologie de l'IA. En octobre, le président américain Joe Biden a publié un décret visant à établir de nouvelles normes en matière de sûreté de l'IA et de sécurité nationale, à protéger les citoyens contre les risques d'atteinte à la vie privée liés à l'IA et à lutter contre la discrimination algorithmique. Le gouvernement britannique a également présenté des projets de réglementation de l'IA, et l'Union européenne a adopté une législation complète visant à mettre en place des garde-fous pour cette technologie.
Edward Snowden, le lanceur d'alerte qui a révélé les programmes de surveillance mondiale du gouvernement américain, s'est exprimé sur la question lors d'un appel vidéo à l'occasion de l'événement SuperAI à Singapour. Il a mis en garde contre une réglementation excessive en déclarant : « Nous assistons à la naissance d'un enfant doté d'une technologie entièrement nouvelle, et nous voyons déjà les loups-garous commencer à tourner en rond. » Snowden s'est dit préoccupé par le fait que les efforts de réglementation pourraient étouffer le potentiel de l'IA, ajoutant : « La panique liée à la sécurité de l'IA en général est quelque chose qui me pose problème. »
La croissance rapide et l'énorme potentiel de l'IA ont suscité des inquiétudes quant à la sécurité de cette technologie. L'année dernière, le milliardaire Elon Musk, investisseur de la première heure dans la société OpenAI, productrice de ChatGPT, l'a qualifiée de « menace existentielle » pour l'humanité. Plus tôt cette année, un groupe d'anciens et d'actuels employés d'OpenAI a publié une lettre ouverte dans laquelle ils avertissent que les « entreprises d'IA pionnières » ne sont pas suffisamment surveillées par les gouvernements et qu'elles posent de « graves risques » pour l'humanité.
Sources : le sénateur répond aux préoccupations d'OpenAI, vidéo dans le texte, Nancy Pelosi, lettre ouverte d'Anthropic
Et vous ?
Pensez-vous que les mesures de sécurité proposées dans le projet de loi sont suffisantes pour prévenir les risques liés à l’IA ? Pourquoi ou pourquoi pas ?
Comment les startups et les petites entreprises peuvent-elles s’adapter aux exigences du projet de loi sans compromettre leur capacité à innover ?
Selon vous, quelles pourraient être les conséquences à long terme de l’absence de régulation stricte de l’IA ?
Le projet de loi pourrait-il inspirer d’autres États ou pays à adopter des régulations similaires ? Quels en seraient les impacts ?
Comment équilibrer la nécessité de réguler l’IA pour garantir la sécurité tout en favorisant l’innovation technologique ?
Quels autres aspects de l’IA devraient être pris en compte dans les régulations futures ?
Pensez-vous que les grandes entreprises technologiques ont trop d’influence sur les décisions politiques concernant l’IA ? Pourquoi ou pourquoi pas ?