IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les plus grands scientifiques chinois et occidentaux de l'IA publient une déclaration :
La menace existentielle que représente l'IA nécessite une collaboration similaire à celle de la guerre froide

Le , par Bruno

390PARTAGES

6  0 
Des experts en intelligence artificielle, tant occidentaux que chinois, ont conjointement établi des « lignes rouges » pour circonscrire les dangers potentiels inhérents à l'IA, définissant ainsi les territoires à ne pas franchir pour éviter des risques existentiels. Réunis à Pékin lors d'une rencontre récente, ces scientifiques ont exprimé un avertissement grave, soulignant la nécessité d'une collaboration mondiale similaire à celle observée pendant la guerre froide pour prévenir des scénarios critiques, comparables à ceux des conflits nucléaires. Les experts ont identifié des domaines sensibles tels que la création d'armes biologiques et les cyberattaques comme des points de vigilance essentiels dans le développement de l'IA.

Cette déclaration, appuyée par des personnalités éminentes telles que Geoffrey Hinton, Yoshua Bengio, Stuart Russell et Andrew Yao, intervient après un dialogue international sur la sécurité de l'IA, où des représentants du gouvernement chinois étaient également présents, laissant ainsi envisager un soutien tacite de l'État. L'engagement des présidents américain et chinois dans ce domaine, ainsi que la participation de plusieurs nations et entreprises majeures de l'IA à des initiatives de coopération internationale, soulignent l'importance de cette déclaration dans la quête d'une gouvernance responsable de l'IA face aux enjeux existentiels.


Lors d'une réunion qui s'est tenue à Pékin la semaine dernière, des experts occidentaux et chinois de l'IA ont lancé un avertissement sévère : pour faire face aux menaces associées à une technologie puissante, il faut une coopération mondiale équivalente aux efforts déployés pendant la guerre froide pour éviter les guerres nucléaires.

Le groupe de scientifiques internationaux spécialisés dans l'IA a identifié des « lignes rouges » dans le développement de l'IA, notamment la création d'armes biologiques et le lancement de cyberattaques. Comme l'a rapporté le Financial Times dans les jours qui ont suivi la conférence, les universitaires ont averti qu'une approche collaborative de la sécurité de l'IA était nécessaire pour éviter « des risques catastrophiques, voire existentiels, pour l'humanité au cours de notre vie ». Au plus profond de la guerre froide, la coordination scientifique et gouvernementale internationale a permis d'éviter une catastrophe thermonucléaire. L'humanité doit à nouveau se coordonner pour éviter une catastrophe qui pourrait résulter d'une technologie sans précédent », indique la déclaration.

Parmi les signataires de la déclaration figurent d'éminents experts tels que Geoffrey Hinton et Yoshua Bengio, lauréats du prix Turing et considérés comme les "parrains de l'IA", Stuart Russell, professeur d'informatique à l'université de Californie (Berkeley), et Andrew Yao, l'un des chercheurs en informatique les plus renommés de Chine. Ces remarques acerbes font suite au « Dialogue international sur la sécurité de l'IA » qui s'est tenu à Pékin la semaine dernière et auquel ont participé des représentants du gouvernement chinois, ce qui laisse supposer un soutien tacite du gouvernement à la conférence et à ses thèmes.

Sécurité de l'intelligence artificielle : Dialogue international sur la sécurisation de l'IA

L'intelligence artificielle est de plus en plus populaire, et les grandes entreprises technologiques du monde entier investissent massivement pour s'imposer dans ce domaine hautement concurrentiel. À mesure que l'IA entre dans nos vies, les protocoles et les mesures de sécurité se retrouvent sous les feux de la rampe. Liu Xinqing en dit plus.

Le dialogue international de Pékin 2024 sur la sécurité de l'IA, le premier du genre organisé en Chine, a été organisé dans un contexte d'attention croissante du public à l'égard de la sécurité de l'IA. Le dialogue réunit des scientifiques du monde entier pour collaborer à l'atténuation des risques associés à l'intelligence artificielle. Les experts participant à la réunion ont convenu que les percées réalisées par les grands modèles l'ont été essentiellement par des moyens empiriques. Toutefois, les mécanismes de génération et d'émergence de l'intelligence qui les sous-tendent ne sont pas encore clairs.

La croissance rapide de l'intelligence artificielle s'accompagne d'une augmentation des risques d'utilisation abusive. La communauté internationale en sait encore très peu sur la manière de construire un système d'intelligence artificielle sûr, ce qui représente un défi pour l'humanité dans son ensemble. YOSHUA BENGIO Lauréat du prix Turing « La science ne sait pas comment s'assurer que ces futurs systèmes d'intelligence artificielle, que nous appelons AGI, sont sûrs. Nous devrions commencer à travailler dès maintenant sur des solutions scientifiques et politiques à ce problème. »

HU TIEJUN Président de l'Académie d'intelligence artificielle de Pékin « La sécurisation de l'intelligence artificielle est une nécessité absolue. Les experts, les gouvernements, les organisations internationales et même les Nations unies se concentrent sur cette question. Je pense que cette réunion est l'occasion pour les experts de l'industrie de discuter des moyens techniques et des mesures visant à garantir la sécurité de l'intelligence artificielle. Cela permettra également de faire progresser nos travaux de recherche sur la sécurité de l'IA ».

Le forum est parvenu à un consensus préliminaire sur la recherche technologique mondiale en matière de sécurité de l'IA, la pratique industrielle et la gouvernance. Il espère également établir en Chine un dialogue international et un mécanisme d'échange pour la sécurité de l'IA, afin de promouvoir le développement sain et durable de l'intelligence artificielle mondiale.

Le président américain Joe Biden et le président chinois Xi Jinping ont convenu d'ouvrir une discussion sur la sécurité de l'IA lors de leur rencontre à San Francisco en novembre. Au début du mois de novembre, la Chine et les États-Unis faisaient partie des 28 pays accueillis par le Premier ministre britannique Rishi Sunak pour le premier sommet sur la sécurité de l'IA, au cours duquel les principales entreprises d'IA se sont engagées à collaborer pour faire face aux risques existentiels posés par l'IA avancée.

Compte rendu de la rencontre entre le président Joe Biden et le président Xi Jinping de la République populaire de Chine

Le président Joseph R. Biden Jr. a tenu le 15 novembre 2023 un sommet avec le président Xi Jinping de la République populaire de Chine (RPC), à Woodside, en Californie. Les deux dirigeants ont eu une discussion franche et constructive sur une série de questions bilatérales et mondiales, notamment sur les domaines de coopération potentielle, et ont échangé leurs points de vue sur les domaines de divergence.

Le président Biden a souligné que les États-Unis et la Chine sont en concurrence, notant que les États-Unis continueraient à investir dans les sources de la force américaine à l'intérieur du pays et à s'aligner sur les alliés et les partenaires dans le monde entier. Il a souligné que les États-Unis défendraient toujours leurs intérêts, leurs valeurs, leurs alliés et leurs partenaires. Il a réaffirmé que le monde attendait des États-Unis et de la Chine qu'ils gèrent la concurrence de manière responsable afin d'éviter qu'elle ne débouche sur un conflit, une confrontation ou une nouvelle guerre froide.

Les deux dirigeants ont progressé sur un certain nombre de questions clés. Ils se sont félicités de la reprise de la coopération bilatérale pour lutter contre la fabrication et le trafic de drogues illicites à l'échelle mondiale, y compris les drogues synthétiques comme le fentanyl, et de la création d'un groupe de travail pour une communication permanente et une coordination des services répressifs sur les questions liées à la lutte contre les stupéfiants. Le président Biden a souligné que cette nouvelle étape fera progresser les efforts déployés par l'ensemble du gouvernement américain pour contrer la menace croissante des drogues synthétiques illicites et pour réduire le détournement des...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 27/03/2024 à 10:59
Des experts en intelligence artificielle, tant occidentaux que chinois, ont conjointement établi des « lignes rouges » pour circonscrire les dangers potentiels inhérents à l'IA, définissant ainsi les territoires à ne pas franchir pour éviter des risques existentiels.

Et ces mêmes experts se feront un plaisir de développer les armes équipées d'IA à la demande de leur état respectif sans se préoccuper le moins du monde de la moindre "ligne rouge"!
4  0 
Avatar de Cpt Anderson
Membre émérite https://www.developpez.com
Le 07/03/2025 à 16:04
C'est la raison d'exister de l'IA : pour le domaine militaire. Il est bien évident que l'IA interviendra dans tous les aspects militaires possibles. Seuls les mickeys font semblant de pas comprendre.
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 26/03/2024 à 20:53
Citation Envoyé par Bruno Voir le message
Quel est votre avis sur le sujet ?
Il ne va pas y avoir une nouvelle guerre froide, il va y avoir une guerre tout court.
Que ce soit légal ou illégal, les USA et la Chine développeront toutes les solutions technologique capable de leur donner un avantage.

Ils disent que la ligne rouge c'est notamment :
- la création d'armes biologiques
- le lancement de cyberattaques
Je trouve ça bizarre comme exemples.

En temps de guerre il n'y a pas de règle. (le gagnant ne sera pas sanctionné)
Des pays vont concevoir des armes de destruction massive et vont violer les conventions sur les armes biologiques ou chimique.

Ils sont marrant quand ils parlent d'efforts déployés pendant la guerre froide pour éviter les guerres nucléaires, aujourd'hui plein de pays ont des armes nucléaires et ne devraient pas en avoir.
Bon après c'est une défense (mutually assured destruction), tu m'envoies une bombe, je t'envoie une bombe, on est tous mort, donc tu ne vas pas m'envoyer de bombe et je ne vais pas t'envoyer de bombe.

Je trouve que c'est un peu naïf de croire que des superpuissances comme les USA vont se mettre à respecter les règles.
Il y a quand même beaucoup à gagner, beaucoup à perdre.
Donc là faut faire comme les champions et se doper, "les autres le font, donc je dois le faire".

=======
L'ambiance va ressembler à ça :
L'arme biologique, une vieille histoire
En 1943, l'armée américaine entame la construction d'un complexe de recherche et développement d'armes biologiques à Camp Detrick, dans le Maryland (rebaptisé depuis Fort Detrick). Le programme est rapidement renforcé pour contrer les recherches de l'Allemagne nazie et du Japon. Les travaux américains portent sur la mise au point de bombes à fragmentation capables de disséminer des projectiles contenant du charbon. D'autres travaux portent sur la toxine du botulisme. En 1944, les responsables du programme d'armes biologiques réclament des moyens pour fabriquer un million de bombes au charbon par mois.

Moustiques. A la fin de la guerre, les Etats-Unis mettent leur programme en veilleuse. En 1946, le ministère de la Guerre reconnaît publiquement l'existence de son programme de recherche sur les armes biologiques. Deux ans plus tard, un rapport souligne la vulnérabilité du pays, notamment en cas d'attaque subversive contre les réseaux d'eau et les métros. En Chine, 1000 à 3000 prisonniers des Japonais seraient décédés pendant la guerre lors d'expériences d'inhalation du charbon dans l'unité 731 de l'Armée impériale, chargée de la guerre bactériologique. Après 1945, les Etats-Unis accordent l'impunité au général japonais Ishii qui dirigeait l'unité 731 et à quelques-uns de ses chercheurs et récupèrent en échange leur savoir-faire.

Face à la menace soviétique, les Etats-Unis décident en 1950 de construire une usine de fabrication d'armes biologiques. La production démarre en décembre 1953. Sept agents biologiques seront fabriqués entre 1954 et 1967, dont le bacille du charbon.
À la fin de la guerre, les USA n'ont pas dit "les scientifiques Nazis doivent être condamné", ils ont dit "il faut qu'on embauche un maximum de scientifiques Nazis".
Opération Paperclip
L’opération Paperclip (originellement appelée « Opération Overcast ») fut menée à la fin de la Seconde Guerre mondiale par l'état-major de l'armée des États-Unis afin d'exfiltrer et de recruter près de 1 500 scientifiques allemands issus du complexe militaro-industriel de l'Allemagne nazie pour lutter contre l'URSS et récupérer les armes secrètes du Troisième Reich.
======
Pour la blague j'ai envie de dire qu'il est possible que le problème d'électricité du porte-conteneurs qui a détruit le pont Francis Scott Key de Baltimore soit mis sur le dos d'une cyberattaque chinoise.
3  4