IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le gouvernement US doit agir «rapidement et de manière décisive» pour éviter les risques de sécurité nationale découlant de l'IA
Qui pourrait provoquer une « extinction à la hauteur de la menace »

Le , par Stéphane le calme

2PARTAGES

6  0 
Le gouvernement américain doit agir « rapidement et de manière décisive » pour éviter les risques importants pour la sécurité nationale découlant de l'intelligence artificielle (IA) qui pourrait, dans le pire des cas, constituer une « menace d'extinction pour l'espèce humaine », selon un rapport commandé par le gouvernement américain et publié lundi.

« Le développement actuel de l'IA pose des risques urgents et croissants pour la sécurité nationale », indique le rapport. « L'essor de l'IA avancée et de l'AGI [intelligence artificielle générale] pourrait déstabiliser la sécurité mondiale d'une manière qui rappelle l'introduction des armes nucléaires ». L'AGI est une technologie hypothétique qui pourrait accomplir la plupart des tâches à un niveau égal ou supérieur à celui d'un humain. De tels systèmes n'existent pas à l'heure actuelle, mais les principaux laboratoires d'IA y travaillent et beaucoup s'attendent à ce que l'AGI arrive dans les cinq prochaines années ou moins.

Le document final, intitulé « An Action Plan to Increase the Safety and Security of Advanced AI », recommande une série de mesures politiques radicales et sans précédent qui, si elles étaient adoptées, perturberaient radicalement l'industrie de l'IA. Le Congrès devrait rendre illégal, selon le rapport, l'entraînement de modèles d'IA utilisant plus d'un certain niveau de puissance de calcul. Le seuil, recommande le rapport, devrait être fixé par une nouvelle agence fédérale de l'IA, bien que le rapport suggère, à titre d'exemple, que l'agence pourrait le fixer juste au-dessus des niveaux de puissance de calcul utilisés pour former les modèles de pointe actuels tels que le GPT-4 d'OpenAI et le Gemini de Google.

La nouvelle agence de l'IA devrait exiger des entreprises d'IA situées à la « frontière » du secteur qu'elles obtiennent l'autorisation du gouvernement pour former et déployer de nouveaux modèles au-delà d'un certain seuil, ajoute le rapport. Les autorités devraient également envisager « de toute urgence » de rendre illégale la publication des « poids » ou du fonctionnement interne des puissants modèles d'IA, par exemple dans le cadre de licences libres, les infractions pouvant être punies d'une peine d'emprisonnement, selon le rapport. Le gouvernement devrait également renforcer les contrôles sur la fabrication et l'exportation de puces d'IA et orienter le financement fédéral vers la recherche sur « l'alignement » qui vise à rendre l'IA avancée plus sûre, recommande le rapport.


Les recommandations du rapport

Le rapport a été commandé par le département d'État en novembre 2022 dans le cadre d'un contrat fédéral d'une valeur de 250 000 dollars, selon des documents publics. Il a été rédigé par Gladstone AI, une entreprise de quatre personnes qui organise des séances d'information technique sur l'IA à l'intention des fonctionnaires. (Certaines parties du plan d'action recommandent que le gouvernement investisse massivement dans la formation des fonctionnaires sur les fondements techniques des systèmes d'IA afin qu'ils puissent mieux comprendre leurs risques). Le rapport a été remis au département d'État le 26 février sous la forme d'un document de 247 pages. Le département d'État n'a pas répondu à plusieurs demandes de commentaires sur le rapport. Les recommandations « ne reflètent pas le point de vue du Département d'État des États-Unis ou du gouvernement des États-Unis », indique la première page du rapport.

Les recommandations du rapport, dont beaucoup étaient auparavant impensables, font suite à une série vertigineuse de développements majeurs dans le domaine de l'IA qui ont amené de nombreux observateurs à revoir leur position à l'égard de cette technologie. Le chatbot ChatGPT, lancé en novembre 2022, a été la première fois que ce rythme de changement est devenu visible pour la société dans son ensemble, ce qui a conduit de nombreuses personnes à se demander si les futures IA pourraient poser des risques existentiels pour l'humanité.

Depuis, de nouveaux outils, dotés de capacités accrues, continuent d'être mis sur le marché à un rythme soutenu. Alors que les gouvernements du monde entier discutent de la meilleure façon de réglementer l'IA, les plus grandes entreprises technologiques ont rapidement mis en place l'infrastructure nécessaire pour former la prochaine génération de systèmes plus puissants, en prévoyant dans certains cas d'utiliser une puissance de calcul 10 ou 100 fois supérieure. Parallèlement, plus de 80 % des Américains pensent que l'IA pourrait accidentellement provoquer un événement catastrophique, et 77 % des électeurs estiment que le gouvernement devrait faire davantage pour réglementer l'IA, selon un récent sondage réalisé par l'AI Policy Institute.


Un rapport qui risque de se heurter à des difficultés politiques

Selon le rapport, interdire la formation de systèmes d'IA avancés au-delà d'un certain seuil pourrait « modérer la dynamique de course entre tous les développeurs d'IA » et contribuer à réduire la vitesse de fabrication de matériel plus rapide par l'industrie des puces. Au fil du temps, une agence fédérale de l'IA pourrait relever le seuil et autoriser la formation de systèmes d'IA plus avancés une fois que la sécurité des modèles de pointe aura été suffisamment prouvée, propose le rapport. De même, le gouvernement pourrait abaisser le seuil de sécurité si des capacités dangereuses sont découvertes dans des modèles existants.

La proposition risque de se heurter à des difficultés politiques. « Je pense qu'il est très peu probable que cette recommandation soit adoptée par le gouvernement des États-Unis », déclare Greg Allen, directeur du Wadhwani Center for AI and Advanced Technologies au Center for Strategic and International Studies (CSIS), en réponse à un résumé fourni par TIME de la recommandation du rapport visant à interdire les entraînements à l'IA au-delà d'un certain seuil. La politique actuelle du gouvernement américain en matière d'IA, note-t-il, consiste à fixer des seuils de calcul au-delà desquels des exigences supplémentaires en matière de transparence, de contrôle et de réglementation s'appliquent, mais pas à fixer des limites au-delà desquelles les essais d'entraînement seraient illégaux. « En l'absence d'un choc exogène, je pense qu'il est peu probable qu'ils changent d'approche », déclare Allen.

Jeremie et Edouard Harris, respectivement PDG et directeur technique de Gladstone, informent le gouvernement américain sur les risques de l'IA depuis 2021. Les deux frères affirment que les représentants du gouvernement qui ont assisté à leurs premières réunions d'information ont reconnu que les risques de l'IA étaient importants, mais leur ont dit que la responsabilité de les gérer incombait à différentes équipes ou départements. À la fin de l'année 2021, les Harris affirment que Gladstone a finalement trouvé un service gouvernemental chargé de traiter les risques liés à l'IA : le Bureau de la sécurité internationale et de la non-prolifération du département d'État. Les équipes du Bureau ont un mandat inter-agences pour traiter les risques liés aux technologies émergentes, y compris les armes chimiques et biologiques, ainsi que les risques radiologiques et nucléaires. À la suite de réunions d'information organisées par Jeremie et Mark Beall, alors directeur général de Gladstone, le Bureau a lancé, en octobre 2022, un appel d'offres pour la rédaction d'un rapport susceptible d'éclairer la décision d'ajouter ou non l'IA à la liste des autres risques qu'il surveille. (Le département d'État n'a pas répondu à une demande de commentaire sur l'issue de cette décision). L'équipe Gladstone a remporté ce contrat et le rapport publié lundi en est le résultat.

Le rapport se concentre sur deux catégories de risques distinctes

La première catégorie, appelée « risque d'armement », est décrite dans le rapport : « Ces systèmes pourraient potentiellement être utilisés pour concevoir et même exécuter des attaques biologiques, chimiques ou cybernétiques catastrophiques, ou permettre des applications armées sans précédent dans le domaine de la robotique en essaim ». La deuxième catégorie est ce que le rapport appelle le risque de « perte de contrôle », c'est-à-dire la possibilité que les systèmes d'IA avancés soient plus malins que leurs créateurs. Il y a, selon le rapport, « des raisons de croire qu'ils pourraient être incontrôlables s'ils sont développés à l'aide des techniques actuelles, et qu'ils pourraient se comporter de manière hostile à l'égard des êtres humains par défaut ».

Selon le rapport, ces deux catégories de risques sont exacerbées par la « dynamique de la course » dans le secteur de l'IA. Selon le rapport, la probabilité que la première entreprise à réaliser l'AGI récolte la majorité des bénéfices économiques incite les entreprises à donner la priorité à la vitesse plutôt qu'à la sécurité. « Les laboratoires d'IA d'avant-garde sont confrontés à une incitation intense et immédiate à faire évoluer leurs systèmes d'IA aussi vite que possible », indique le rapport. « Ils ne sont pas immédiatement incités à investir dans des mesures de sûreté ou de sécurité qui n'apportent pas d'avantages économiques directs, même si certains le font par souci sincère ».

Le rapport Gladstone identifie le matériel - en particulier les puces informatiques haut de gamme actuellement utilisées pour former les systèmes d'IA - comme un goulot d'étranglement important pour l'augmentation des capacités de l'IA. Selon le rapport, la réglementation de la prolifération de ce matériel pourrait être "la condition la plus importante pour préserver la sécurité mondiale à long terme de l'IA". Il indique que le gouvernement devrait envisager de lier les licences d'exportation de puces à la présence de technologies sur puce permettant de contrôler si les puces sont utilisées dans de grandes séries d'entraînement à l'IA, afin de faire respecter les règles proposées contre l'entraînement de systèmes d'IA plus grands que le GPT-4. Toutefois, le rapport note également que toute intervention devra tenir compte de la possibilité qu'une surréglementation soutienne les industries de puces étrangères, érodant ainsi la capacité des États-Unis à influencer la chaîne d'approvisionnement.

Les auteurs du rapport ont travaillé pendant plus d'un an, s'entretenant avec plus de 200 fonctionnaires, experts et employés d'entreprises d'avant-garde dans le domaine de l'IA, comme OpenAI, Google DeepMind, Anthropic et Meta, dans le cadre de leurs recherches. Les comptes rendus de certaines de ces conversations brossent un tableau inquiétant, suggérant que de nombreux travailleurs de la sécurité de l'IA dans les laboratoires de pointe sont préoccupés par les incitations perverses qui motivent la prise de décision par les dirigeants qui contrôlent leurs entreprises.

Source : rapport

Et vous ?

Quelles devraient être les priorités du gouvernement pour réguler l’intelligence artificielle ?
Comment pouvons-nous équilibrer les avantages de l’IA avec les risques potentiels pour la sécurité ?
Quel rôle les citoyens devraient-ils jouer dans la surveillance de l’évolution de l’IA ?
Quelles mesures internationales pourraient être prises pour assurer une utilisation éthique de l’IA ?
Comment la recherche et l’innovation en IA peuvent-elles contribuer à prévenir les scénarios catastrophiques ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 12/03/2024 à 15:36
Citation Envoyé par virginieh Voir le message
En quoi il diffère du notre du coup ?
En effet, la situation politique en France est malheureusement assez proche. La seul différence est qu'il y a toujours un mince espoir par le fait que le système est moins fondé sur le bipartisme. Depuis 2017, les politiciens de LR et du PS ayant les idées les plus anti-démocratique on rejoins Macron, ce qui a créé un éclatement du système politique. De plus, aux USA toute voix de gauche (j’entends social) est réduite au silence au sein du parti démocrate (comme Bernie Sanders par exemple, pourtant pas si à gauche que ça). L'obligation de faire carrière dans un des deux principaux partis est clairement un carcans énorme.
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 08/04/2024 à 15:25
Citation Envoyé par Patrick Ruiz Voir le message
Quelle est votre opinion sur le développement de l’IA et son impact sur la désinformation ?
Même avant l'IA il y avait de la désinformation partout.

Par exemple régulièrement des gens comme Bruno Le Maire, Gérald Darmanin, Emmanuel Macron, Gabriel Attal, diffusent de fausses informations.
Les Mensonges de la Macronie

Citation Envoyé par Patrick Ruiz Voir le message
Pensez-vous que les réseaux sociaux devraient être plus responsables et régulés face à la diffusion des deepfakes et des fausses informations ?
Non.
Déjà parce que c'est techniquement impossible. J'imagine qu'il existe une course entre les outils qui génèrent des deepfakes et les outils qui identifient les deepfakes.
Donc bonne chance pour identifier les deepfakes.

Ensuite il est rarement possible de savoir ce qui est une "vraie information".
Ou alors il faudrait un ministère de la vérité qui dise "ça c'est vrai" / "ça c'est faux", ce qui serait digne d'un régime totalitaire.

Citation Envoyé par Patrick Ruiz Voir le message
Comment vous informez-vous sur les candidats et les enjeux des élections en général et de l’élection américaine de 2024 en particulier ?
Aux USA les 2 candidats favoris sont Trump et Biden.
Les électeurs peuvent utiliser leurs expériences personnelles pour se forger un jugement. Trump a été président, Biden a été président ; il est donc possible de s'imaginer ce que cela donnerait si l'un d'entre eux prenait le pouvoir en 2024.

Celui qui est très satisfait du bilan de Biden peut voter Biden, celui qui préfère le bilan de Trump peut voter Trump.
Ou sinon les électeurs peuvent regarder les promesses de campagne.

Si c'est vrai ce qui est dit dans cet article je préfère le programme de Trump :
Duel Trump vs Biden: que disent leurs programmes ?
Ça parle de protectionnisme, ce qui est toujours cool.
Ça parle de diminuer l'immigration illégale, ce qui est important.
Ça parle de faire quelque chose contre la crise des opioïdes, il y a un grave problème avec ces médicaments aux USA, les médecins se sont laissé manipuler par les laboratoires et en ont prescris trop facilement.
Il dit que les USA ne reconnaitront que 2 genres (ce qui est bien puisque c'est le cas dans la réalité).

Citation Envoyé par Patrick Ruiz Voir le message
Craignez-vous une ingérence de l'IA dans les élections présidentielles de votre pays tandis que la technologie se perfectionne ? Dans quelle mesure ?
J'ai plus peur des instituts de sondages, des médias mainstream, du gouvernement et de la justice de mon propre pays.

Citation Envoyé par Patrick Ruiz Voir le message
Quel rôle pensez-vous que les citoyens et les organisations civiles peuvent jouer pour renforcer la résilience démocratique face à la désinformation ?
Des démocraties ne fonctionnent pas très bien.
Une candidate fait des promesses pendant la campagne, une fois qu'elle est présidente elle fait ce qu'elle veut et on ne peut rien faire pour la dégager.
Le pire c'est que parfois, après un mandat catastrophique elle se fait réélire, alors que tout le monde la déteste.

Il parait qu'en Suisse c'est légèrement mieux.
Là-bas il y a un truc qui s'appelle "referendum", ça n'existe pas en France, c'est un procédé par lequel une autorité politique consulte l'ensemble des citoyens.
1  2 
Avatar de Jules34
Membre expérimenté https://www.developpez.com
Le 08/04/2024 à 17:24
Citation Envoyé par Ryu2000 Voir le message
Même avant l'IA il y avait de la désinformation partout.

Par exemple régulièrement des gens comme Bruno Le Maire, Gérald Darmanin, Emmanuel Macron, Gabriel Attal, diffusent de fausses informations.
Les Mensonges de la Macronie

Il parait qu'en Suisse c'est légèrement mieux.
Là-bas il y a un truc qui s'appelle "referendum", ça n'existe pas en France, c'est un procédé par lequel une autorité politique consulte l'ensemble des citoyens.
Entièrement d'accord avec vous. Depuis Sarkozy les élus Français ont très bien compris qu'il fallait mieux arrêter de nous demander notre avis vu qu'on a dit non à la constitution européenne. Pour aggrandir les murs de la prison améliorer notre démocratie il faut donc constamment nous inonder d'infos sinon fausse, très fortement orientée pour qu'ils puissent continuer à nous emmener droit dans le mur pour éviter que les USA ne chutent trop bruyamment.

Nords Stream a sauté, l'Europe est dans une récession sans précédent, mais la priorité ce serait de continuer à lutter contre la discrimination capillaire.
0  1