IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les entreprises technologiques s'attaquent au projet de loi californien incluant la création d'un « interrupteur d'arrêt » pour désactiver leurs modèles d'IA les plus puissants

Le , par Stéphane le calme

19PARTAGES

8  0 
Les géants de l’intelligence artificielle en Californie sont montés au créneau contre un projet de loi de l’État qui imposerait aux entreprises technologiques de se conformer à un cadre de sécurité strict, incluant la création d’un « interrupteur d’arrêt » pour désactiver leurs modèles d’IA les plus puissants. Cette proposition législative, qui a suscité une vive réaction de la part des poids lourds de la Silicon Valley, soulève des questions cruciales sur l’équilibre entre l’innovation et la sécurité dans le domaine de l’IA.

Le 7 février 2024, le Safe and Secure Innovation for Frontier Artificial Intelligence Systems Act (SB 1047) a été présenté au Sénat californien. Le projet de loi vise à imposer une diligence raisonnable, des tests et des conclusions supplémentaires pour certains modèles d'intelligence artificielle couverts avant leur utilisation commerciale, publique ou à grande échelle.

La proposition de loi impose aux développeurs de systèmes d'intelligence artificielle de s'assurer que leurs modèles ne possèdent pas de capacités dangereuses, telles que la création d'armes biologiques ou nucléaires ou l'aide aux attaques de cybersécurité. Le projet de loi, qui a déjà été adopté par le Sénat de l'État le 21 mai 2024 et devrait être soumis au vote de l'assemblée générale en août, exige également des développeurs qu'ils rendent compte de leurs tests de sécurité et qu'ils mettent en place un « interrupteur d'arrêt » pour désactiver leurs modèles en cas de besoin.

Le projet de loi vise les grandes start-ups d'IA comme OpenAI, Anthropic et Cohere, ainsi que les grands modèles de langage des géants de la technologie tels que Meta. Le sénateur démocrate de l'État, Scott Wiener, qui a présenté le projet de loi, a souligné la nécessité de mesures de sécurité proactives en déclarant : « Fondamentalement, je souhaite que l'IA réussisse et que l'innovation se poursuive, mais essayons d'anticiper tout risque en matière de sécurité ». Il a décrit le projet de loi comme une mesure « légère » visant à garantir des évaluations de sécurité de base et l'atténuation des risques.

L'opposition de l'industrie

La proposition de loi a suscité une vive opposition de la part de l'industrie technologique, en particulier dans la Silicon Valley. Ses détracteurs estiment qu'elle pourrait étouffer l'innovation et pousser les jeunes pousses de l'IA à quitter la Californie. Andrew Ng, éminent informaticien et membre du conseil d'administration d'Amazon, a critiqué le projet de loi en déclarant : « Si quelqu'un voulait élaborer des réglementations pour étouffer l'innovation, il pourrait difficilement faire mieux. Il crée des responsabilités massives pour des risques de science-fiction, et alimente ainsi la peur chez tous ceux qui osent innover ».

Arun Rao, chef de produit pour l'IA générative chez Meta, a également fait part de ses inquiétudes, qualifiant le projet de loi « d'irréalisable » et avertissant qu'il pourrait « mettre fin à l'open source en [Californie] ». Il a ajouté que l'impact économique pourrait être substantiel, coûtant potentiellement des milliards lorsque les entreprises et les travailleurs hautement rémunérés quitteront l'État.

Malgré les réactions négatives, Wiener reste attaché au projet de loi, déclarant : « Il s'agit du secteur technologique, qui n'aime pas les réglementations, et je ne suis donc pas du tout surpris qu'il y ait des réactions négatives ». Il a également fait part de son intention d'amender le projet de loi afin d'en clarifier le champ d'application, notamment en exemptant les modèles open source de l'obligation de « kill switch » et en limitant l'application du projet de loi aux grands modèles dont la formation a coûté au moins 100 millions de dollars.


Scott Wiener, législateur démocrate au Sénat de l'État de Californie, propose une législation visant à réglementer l'IA

Un contexte réglementaire plus large

Le débat sur la réglementation de l'IA ne se limite pas à la Californie. Les gouvernements du monde entier s'efforcent de gérer les progrès rapides de la technologie de l'IA. En octobre, le président américain Joe Biden a publié un décret visant à établir de nouvelles normes en matière de sûreté de l'IA et de sécurité nationale, à protéger les citoyens contre les risques d'atteinte à la vie privée liés à l'IA et à lutter contre la discrimination algorithmique. Le gouvernement britannique a également présenté des projets de réglementation de l'IA, et l'Union européenne a adopté une législation complète visant à mettre en place des garde-fous pour cette technologie.

Edward Snowden, le lanceur d'alerte qui a révélé les programmes de surveillance mondiale du gouvernement américain, s'est exprimé sur la question lors d'un appel vidéo à l'occasion de l'événement SuperAI à Singapour. Il a mis en garde contre une réglementation excessive en déclarant : « Nous assistons à la naissance d'un enfant doté d'une technologie entièrement nouvelle, et nous voyons déjà les loups-garous commencer à tourner en rond. » Snowden s'est dit préoccupé par le fait que les efforts de réglementation pourraient étouffer le potentiel de l'IA, ajoutant : « La panique liée à la sécurité de l'IA en général est quelque chose qui me pose problème. »

Le président américain Joe Biden a présenté en octobre un décret visant à établir de nouvelles normes en matière de sûreté de l'IA et de sécurité nationale, à protéger les citoyens contre les risques d'atteinte à la vie privée liés à l'IA et à lutter contre la discrimination algorithmique. En avril, le gouvernement britannique a fait part de son intention d'élaborer une nouvelle législation pour réglementer l'IA.

La croissance rapide et l'énorme potentiel de l'IA ont suscité des inquiétudes quant à la sécurité de cette technologie. L'année dernière, le milliardaire Elon Musk, investisseur de la première heure dans la société OpenAI, productrice de ChatGPT, l'a qualifiée de « menace existentielle » pour l'humanité. Cette semaine, un groupe d'anciens et d'actuels employés d'OpenAI a publié une lettre ouverte dans laquelle ils avertissent que les « entreprises d'IA pionnières » ne sont pas suffisamment surveillées par les gouvernements et qu'elles posent de « graves risques » pour l'humanité.

Le projet de loi californien a été coparrainé par le Center for AI Safety (CAIS), une organisation à but non lucratif basée à San Francisco et dirigée par l'informaticien Dan Hendrycks, qui est le conseiller en matière de sécurité de xAI, la start-up de Musk spécialisée dans l'IA. Le CAIS entretient des liens étroits avec le mouvement de l'altruisme efficace, qui a été rendu célèbre par Sam Bankman-Fried, un dirigeant de crypto-monnaie emprisonné.


Pourtant, fin mai, les entreprises de la tech se sont accordées sur la mise en place d'un « interrupteur d'arrêt » de l'IA

Il n'est pas question de remettre l'IA dans la boîte de Pandore, mais les plus grandes entreprises d'IA du monde collaborent volontairement avec les gouvernements pour répondre aux plus grandes craintes liées à cette technologie et apaiser les inquiétudes selon lesquelles le développement incontrôlé de l'IA pourrait conduire à des scénarios de science-fiction dans lesquels l'IA se retournerait contre ses créateurs. Toutefois, sans dispositions juridiques strictes renforçant les engagements des gouvernements en matière d'IA, les conversations n'iront pas plus loin.

En mai, 16 entreprises d'IA influentes, dont Anthropic, Microsoft et OpenAI, 10 pays et l'UE se sont réunis lors d'un sommet à Séoul pour définir des lignes directrices sur le développement responsable de l'IA. L'un des principaux résultats du sommet est que les entreprises d'IA présentes se sont mises d'accord sur ce que l'on appelle un « kill switch », c'est-à-dire une politique selon laquelle elles arrêteraient le développement de leurs modèles d'IA les plus avancés s'ils étaient considérés comme ayant franchi certains seuils de risque. Il est toutefois difficile de savoir si cette politique est réellement efficace, étant donné qu'elle n'est pas assortie d'un poids juridique réel ou qu'elle ne définit pas de seuils de risque spécifiques. De plus, les autres entreprises d'IA non présentes, ou concurrentes de celles qui ont accepté les termes de l'accord dans l'esprit, ne seraient pas soumises à l'engagement.

« À l'extrême, les organisations s'engagent à ne pas développer ou déployer un modèle ou un système si des mesures d'atténuation ne peuvent pas être appliquées pour maintenir les risques en dessous des seuils », peut-on lire dans le document d'orientation signé par les entreprises d'IA, dont Amazon, Google et Samsung.

Cette décision contraste avec les débats en Californie qui, contrairement à ceux du sommet de Séoul, pourraient devenir contraignant si la proposition venait à devenir loi.

Conclusion

Le débat autour du projet de loi californien sur l’interrupteur d’arrêt d’urgence pour l’IA met en lumière les défis auxquels sont confrontés les législateurs et l’industrie de l’IA. Alors que la sécurité est une préoccupation légitime, il est essentiel de trouver un terrain d’entente qui permette à l’innovation de prospérer tout en protégeant la société contre les risques potentiels de l’IA.

Sources : SB 1047: Safe and Secure Innovation for Frontier Artificial Intelligence Models Act, FT

Et vous ?

Quelle est votre opinion sur l’obligation d’intégrer un « interrupteur d’arrêt » dans les systèmes d’IA ? Est-ce une mesure de précaution nécessaire ou une entrave à l’autonomie des technologies d’IA ?
Qu'est-ce qui peut, selon vous, expliquer le fait que les entreprises s'accordent pour intégrer un « interrupteur d'arrêt » lorsque cette décision n'est pas contraignante juridiquement, mais s'oppose farouchement à cette possibilité qui pourrait être ancrée dans la loi californienne ?
Comment les entreprises d’IA devraient-elles réagir face à des régulations qui pourraient limiter leur capacité d’innovation ?
Pensez-vous que le gouvernement devrait avoir le pouvoir de désactiver des systèmes d’IA, et dans quelles circonstances cela serait-il justifié ?
Quel impact pensez-vous que de telles lois auront sur l’avenir de l’industrie technologique en Californie et à l’échelle mondiale ?
Les craintes concernant les « capacités dangereuses » des IA sont-elles justifiées selon vous ? Quels seraient les risques et les avantages d’une telle technologie ?
En matière de sécurité des IA, quel rôle les citoyens devraient-ils jouer pour influencer les décisions législatives ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de _toma_
Membre confirmé https://www.developpez.com
Le 20/06/2024 à 19:00
Je pense que le résultat le plus probable est celui de l'abondance, où les biens et les services sont disponibles pour tout le monde. Il n'y a pas de pénurie pour chacun d'entre nous. Ce serait une randonnée universelle. Le travail serait facultatif
Encore un qui a bien suivi ses cours d'économie et qui est pas foutu de comprendre qu'une croissance infinie dans un monde fini est impossible. Mais comment font tous les "grands" de notre monde pour sombrer dans ce schéma de pensées qu'un enfant de 7 ans trouverait louche ?

Si l'IA peut faire tout ce que vous pouvez faire, mais en mieux, à quoi bon faire les choses ? Je pense qu'il y aura une crise existentielle
Merci l'IA qui fait les vidanges, débouche les WC, brasse la bière et coupe des arbres pour en faire du PQ.
Est-ce qu'il a une armée de serviteurs pour à ce point oublier que le quotidien n'est pas exclusivement constitué d'ordinateurs ?
5  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 21/06/2024 à 1:53
Citation Envoyé par _toma_ Voir le message
Encore un qui a bien suivi ses cours d'économie et qui est pas foutu de comprendre qu'une croissance infinie dans un monde fini est impossible. Mais comment font tous les "grands" de notre monde pour sombrer dans ce schéma de pensées qu'un enfant de 7 ans trouverait louche ?

Merci l'IA qui fait les vidanges, débouche les WC, brasse la bière et coupe des arbres pour en faire du PQ.
Est-ce qu'il a une armée de serviteurs pour à ce point oublier que le quotidien n'est pas exclusivement constitué d'ordinateurs ?
Il nous prend juste pour des abrutis. L'homme le plus riche du monde perdrait tout son pouvoir, s'il n'y avait plus besoin de travailler pour vivre.
2  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 09/06/2024 à 17:15
Je ne savais pas le 6 juin lorsque j'ai posté ceci :Mon avis sur le remplacement des emplois par l'IA que les entreprises technologiques de la Silicon Valley allaient faire du lobbying au près des sénateurs californiens pour empêcher le kill switch lors de certains résultats de l'IA. Oui l'IA américaine va devenir dangereuse à cause de ses hallucinations que nous ne pourrons détecter puisque inaccessibles à la compréhension humaine à la différence de certaines IA européennes qui resteront explicables et plus intelligentes que les IA américaines et chinoises.
1  0 
Avatar de phil995511
Membre éprouvé https://www.developpez.com
Le 08/10/2024 à 12:07
Le mensonge ne peut en aucun cas être rattaché à la liberté d'expression, il doit être clairement proscrit de toute forme de politique, sans quoi certains politiciens continueront à mener des campagnes de désinformation, de dénigrement d'autrui, voir de tentatives de déstabilisation de systèmes démocratiques mis en place !!!
1  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 10/06/2024 à 11:49
Citation Envoyé par marsupial  Voir le message
Je ne savais pas le 6 juin lorsque j'ai posté ceci :[URL="https://www.developpez.net/forums/d2146262-2/general-developpement/algorithme-mathematiques/intelligence-artificielle/penser-l-ia-creera-utopie-laquelle-n-aurions-travailler-d-naivete-inouie/#post12027851"]l'IA américaine va devenir dangereuse à cause de ses hallucinations que nous ne pourrons détecter puisque inaccessibles à la compréhension humaine à la différence de certaines IA européennes qui resteront explicables et plus intelligentes que les IA américaines et chinoises.

J'ai peur qu'on ai juste les même IA que les américains mais avec un vernis par dessus, comme le RGPD, qui ne sert à rien si ce n'est faire du bullshit job en dessous de la couche logicielle américaine qui au final pompe toute les données possibles et imaginables, rgpd ou pas.
0  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 21/06/2024 à 9:08

(promis je vais recycler ma blague )
0  0 
Avatar de vanquish
Membre chevronné https://www.developpez.com
Le 21/06/2024 à 10:33
On a bien vu avec la robotisation des usines.
Les ouvriers n'ont plus eu besoin de travailler. Mais pas certains qu'ils aient été dans l'abondance du coup.
Comment ce populiste peut-ils avoir autant de fan ?
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 21/06/2024 à 12:03
Citation Envoyé par Anthony Voir le message
Il poursuit : « Je pense que le résultat le plus probable est celui de l'abondance, où les biens et les services sont disponibles pour tout le monde. Il n'y a pas de pénurie pour chacun d'entre nous. Ce serait une randonnée universelle. Le travail serait facultatif ».
Mais oui, on va être 8 milliards à avoir un bon niveau de vie, chacun aura sa maison (neuve, bien isolé, avec une grosse climatisation), sa voiture électrique, son smartphone, son PC de bureau, chaque année chaque personne prendra l'avion pour prendre des vacances loin de chez elle

Le gars doit être au courant qu'il ment, c'est impossible d'y croire. Ou il omet des étapes.
Si il n'y avait que 500 millions d'humains ce serait peut-être possible. (Georgia Guidestones)
0  0 
Avatar de eddy72
Membre régulier https://www.developpez.com
Le 08/09/2024 à 11:21
"Le traité entrera en vigueur le premier jour du mois qui suit l’expiration d’une période de trois mois après la date à laquelle cinq signataires,

dont au moins trois États membres du Conseil de l’Europe, l’auront ratifié."

Vive la simplicité !!!
0  0 
Avatar de Fluxgraveon
Membre habitué https://www.developpez.com
Le 09/09/2024 à 11:08
En établissant des normes juridiquement contraignantes, ce traité vise à garantir que l’IA est développée et utilisée de manière éthique et responsable, tout en protégeant les valeurs fondamentales de la société.
Quelles "valeurs" ?
0  0