Des experts en intelligence artificielle, tant occidentaux que chinois, ont conjointement établi des « lignes rouges » pour circonscrire les dangers potentiels inhérents à l'IA, définissant ainsi les territoires à ne pas franchir pour éviter des risques existentiels. Réunis à Pékin lors d'une rencontre récente, ces scientifiques ont exprimé un avertissement grave, soulignant la nécessité d'une collaboration mondiale similaire à celle observée pendant la guerre froide pour prévenir des scénarios critiques, comparables à ceux des conflits nucléaires. Les experts ont identifié des domaines sensibles tels que la création d'armes biologiques et les cyberattaques comme des points de vigilance essentiels dans le développement de l'IA. Cette déclaration, appuyée par des personnalités éminentes telles que Geoffrey Hinton, Yoshua Bengio, Stuart Russell et Andrew Yao, intervient après un dialogue international sur la sécurité de l'IA, où des représentants du gouvernement chinois étaient également présents, laissant ainsi envisager un soutien tacite de l'État. L'engagement des présidents américain et chinois dans ce domaine, ainsi que la participation de plusieurs nations et entreprises majeures de l'IA à des initiatives de coopération internationale, soulignent l'importance de cette déclaration dans la quête d'une gouvernance responsable de l'IA face aux enjeux existentiels.
Lors d'une réunion qui s'est tenue à Pékin la semaine dernière, des experts occidentaux et chinois de l'IA ont lancé un avertissement sévère : pour faire face aux menaces associées à une technologie puissante, il faut une coopération mondiale équivalente aux efforts déployés pendant la guerre froide pour éviter les guerres nucléaires.
Le groupe de scientifiques internationaux spécialisés dans l'IA a identifié des « lignes rouges » dans le développement de l'IA, notamment la création d'armes biologiques et le lancement de cyberattaques. Comme l'a rapporté le Financial Times dans les jours qui ont suivi la conférence, les universitaires ont averti qu'une approche collaborative de la sécurité de l'IA était nécessaire pour éviter « des risques catastrophiques, voire existentiels, pour l'humanité au cours de notre vie ». Au plus profond de la guerre froide, la coordination scientifique et gouvernementale internationale a permis d'éviter une catastrophe thermonucléaire. L'humanité doit à nouveau se coordonner pour éviter une catastrophe qui pourrait résulter d'une technologie sans précédent », indique la déclaration.
Parmi les signataires de la déclaration figurent d'éminents experts tels que Geoffrey Hinton et Yoshua Bengio, lauréats du prix Turing et considérés comme les "parrains de l'IA", Stuart Russell, professeur d'informatique à l'université de Californie (Berkeley), et Andrew Yao, l'un des chercheurs en informatique les plus renommés de Chine. Ces remarques acerbes font suite au « Dialogue international sur la sécurité de l'IA » qui s'est tenu à Pékin la semaine dernière et auquel ont participé des représentants du gouvernement chinois, ce qui laisse supposer un soutien tacite du gouvernement à la conférence et à ses thèmes.
Sécurité de l'intelligence artificielle : Dialogue international sur la sécurisation de l'IA
L'intelligence artificielle est de plus en plus populaire, et les grandes entreprises technologiques du monde entier investissent massivement pour s'imposer dans ce domaine hautement concurrentiel. À mesure que l'IA entre dans nos vies, les protocoles et les mesures de sécurité se retrouvent sous les feux de la rampe. Liu Xinqing en dit plus.
Le dialogue international de Pékin 2024 sur la sécurité de l'IA, le premier du genre organisé en Chine, a été organisé dans un contexte d'attention croissante du public à l'égard de la sécurité de l'IA. Le dialogue réunit des scientifiques du monde entier pour collaborer à l'atténuation des risques associés à l'intelligence artificielle. Les experts participant à la réunion ont convenu que les percées réalisées par les grands modèles l'ont été essentiellement par des moyens empiriques. Toutefois, les mécanismes de génération et d'émergence de l'intelligence qui les sous-tendent ne sont pas encore clairs.
La croissance rapide de l'intelligence artificielle s'accompagne d'une augmentation des risques d'utilisation abusive. La communauté internationale en sait encore très peu sur la manière de construire un système d'intelligence artificielle sûr, ce qui représente un défi pour l'humanité dans son ensemble. YOSHUA BENGIO Lauréat du prix Turing « La science ne sait pas comment s'assurer que ces futurs systèmes d'intelligence artificielle, que nous appelons AGI, sont sûrs. Nous devrions commencer à travailler dès maintenant sur des solutions scientifiques et politiques à ce problème. »
HU TIEJUN Président de l'Académie d'intelligence artificielle de Pékin « La sécurisation de l'intelligence artificielle est une nécessité absolue. Les experts, les gouvernements, les organisations internationales et même les Nations unies se concentrent sur cette question. Je pense que cette réunion est l'occasion pour les experts de l'industrie de discuter des moyens techniques et des mesures visant à garantir la sécurité de l'intelligence artificielle. Cela permettra également de faire progresser nos travaux de recherche sur la sécurité de l'IA ».
Le forum est parvenu à un consensus préliminaire sur la recherche technologique mondiale en matière de sécurité de l'IA, la pratique industrielle et la gouvernance. Il espère également établir en Chine un dialogue international et un mécanisme d'échange pour la sécurité de l'IA, afin de promouvoir le développement sain et durable de l'intelligence artificielle mondiale.
Le président américain Joe Biden et le président chinois Xi Jinping ont convenu d'ouvrir une discussion sur la sécurité de l'IA lors de leur rencontre à San Francisco en novembre. Au début du mois de novembre, la Chine et les États-Unis faisaient partie des 28 pays accueillis par le Premier ministre britannique Rishi Sunak pour le premier sommet sur la sécurité de l'IA, au cours duquel les principales entreprises d'IA se sont engagées à collaborer pour faire face aux risques existentiels posés par l'IA avancée.
Compte rendu de la rencontre entre le président Joe Biden et le président Xi Jinping de la République populaire de Chine
Le président Joseph R. Biden Jr. a tenu le 15 novembre 2023 un sommet avec le président Xi Jinping de la République populaire de Chine (RPC), à Woodside, en Californie. Les deux dirigeants ont eu une discussion franche et constructive sur une série de questions bilatérales et mondiales, notamment sur les domaines de coopération potentielle, et ont échangé leurs points de vue sur les domaines de divergence.
Le président Biden a souligné que les États-Unis et la Chine sont en concurrence, notant que les États-Unis continueraient à investir dans les sources de la force américaine à l'intérieur du pays et à s'aligner sur les alliés et les partenaires dans le monde entier. Il a souligné que les États-Unis défendraient toujours leurs intérêts, leurs valeurs, leurs alliés et leurs partenaires. Il a réaffirmé que le monde attendait des États-Unis et de la Chine qu'ils gèrent la concurrence de manière responsable afin d'éviter qu'elle ne débouche sur un conflit, une confrontation ou une nouvelle guerre froide.
Les deux dirigeants ont progressé sur un certain nombre de questions clés. Ils se sont félicités de la reprise de la coopération bilatérale pour lutter contre la fabrication et le trafic de drogues illicites à l'échelle mondiale, y compris les drogues synthétiques comme le fentanyl, et de la création d'un groupe de travail pour une communication permanente et une coordination des services répressifs sur les questions liées à la lutte contre les stupéfiants. Le président Biden a souligné que cette nouvelle étape fera progresser les efforts déployés par l'ensemble du gouvernement américain pour contrer la menace croissante des drogues synthétiques illicites et pour réduire le détournement des...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Quel est votre avis sur le sujet ?