IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Vers une AIEA (Agence internationale de l'énergie atomique) de l'intelligence artificielle ?
L'ONU veut créer une agence mondiale pour réguler l'IA

Le , par Stéphane le calme

4PARTAGES

9  0 
Le secrétaire général de l’ONU, Antonio Guterres, a soutenu lundi une proposition de certains dirigeants de l’intelligence artificielle pour la création d’un organe de surveillance international de l’IA comme l’Agence internationale de l’énergie atomique (AIEA).

António Guterres a déclaré qu'un tel modèle pourrait être « très intéressant », mais a noté que « seuls les États membres peuvent le créer, pas le Secrétariat des Nations Unies ». L'AIEA, basée à Vienne, a été créée en 1957 et promeut l'utilisation sûre, sécurisée et pacifique des technologies nucléaires tout en surveillant d'éventuelles violations du Traité de non-prolifération (TNP). Elle compte 176 États membres.


La prolifération de la haine et des mensonges sur les plateformes numériques et la menace que l'intelligence artificielle puisse devenir un « monstre » incontrôlé exigent une action mondiale coordonnée, à commencer par un code de conduite pour les gouvernements, les entreprises technologiques et les annonceurs qui promeut la vérité et protège les droits de l'homme, selon une déclaration du secrétaire général de l'ONU.

Antonio Guterres a déclaré qu'il prévoyait de nommer un conseil consultatif scientifique dans quelques jours et un conseil consultatif sur l'intelligence artificielle en septembre pour préparer les initiatives que l'ONU pourrait prendre. Il a déclaré qu'il réagirait favorablement à une nouvelle agence de l'ONU sur l'intelligence artificielle et a suggéré comme modèle l'Agence internationale de l'énergie atomique, qui est basée sur la connaissance et dispose de certains pouvoirs de réglementation.

Guterres a déclaré lors d'une conférence de presse qu'il prévoyait de mener de larges consultations sur les principes du Code de conduite des Nations Unies pour l'intégrité de l'information sur les plateformes numériques, qu'il publiera avant le Sommet de l'avenir des Nations Unies de l'année prochaine.

Il a exprimé l'espoir que le code sera largement soutenu, mais lorsqu'on lui a demandé si les gouvernements et les entreprises technologiques étaient disposés à prendre des mesures pour rendre l'espace numérique plus sûr, il a répondu : « C'est la question que je me pose ».

« Nous avons affaire à une entreprise qui génère des profits énormes, et nous avons aussi affaire dans certaines situations à des gouvernements qui ne respectent pas entièrement les droits de l'homme, c'est donc une bataille constante - et dans cette bataille constante, nous devons mobiliser tous ceux qui sont attachés à l'intégrité de l'information sur les plateformes numériques », a-t-il déclaré.

Heidi Beirich, cofondatrice du Projet mondial contre la haine et l'extrémisme, a convenu que même si c'est une étape positive que l'ONU appelle à des solutions internationales à ce problème mondial, son code de conduite ne sera probablement pas suffisant pour arrêter le torrent d'informations fausses et haineuses en ligne.

« Le fait est que les codes volontaires, y compris les propres conditions de service des entreprises sur ces questions, n'ont pas réussi à les maîtriser », a déclaré Beirich. « Le problème pour l'ONU est qu'ils ne peuvent pas faire ce qu'il semble devoir faire pour régler ce problème, qui est essentiellement une législation ».

Guterres a déclaré que de nombreuses initiatives étaient en cours, notamment une loi et un code de conduite dans l'Union européenne pour ses 27 pays membres et un sommet britannique sur la sécurité de l'IA à l'automne. D'autres gouvernements étudient également des formes de réglementation. Mais il a dit qu'il y a une opinion selon laquelle la réglementation n'est pas facile parce que les choses évoluent très rapidement, et qu'une approche globale est donc nécessaire.

Guterres a déclaré qu'un problème clé est que le modèle commercial de l'entreprise technologique donne la priorité à l'engagement plutôt qu'à la confidentialité, à la vérité et aux droits de l'homme. Il a déclaré que les entreprises technologiques doivent comprendre que des profits massifs ne peuvent être créés « au détriment d'un modèle d'engagement qui passe avant toute autre considération ».

Le chef de l'ONU a déclaré que le code de conduite ne sera pas une solution, « mais il sera mondial » et il permettra aux gouvernements, aux entreprises technologiques, aux annonceurs et autres « de s'engager sur ce qui doit être fait pour garantir ou au moins pour promouvoir sérieusement l'intégrité de l'information sur les plateformes numériques ».


Le secrétaire général de l'ONU, Antonio Guterres

Discours du secrétaire général de l'ONU

Les nouvelles technologies évoluent à une vitesse fulgurante, tout comme les menaces qui les accompagnent. Les sonnettes d'alarme concernant la dernière forme d'intelligence artificielle (IA) - l'IA générative - sont assourdissantes, et elles sont plus fortes de la part des développeurs qui l'ont conçue. Ces scientifiques et experts ont appelé le monde à agir, déclarant l'IA comme une menace existentielle pour l'humanité au même titre que le risque de guerre nucléaire.

Nous devons prendre ces avertissements au sérieux. Notre proposition de Pacte numérique mondial, Nouvel agenda pour la paix et Accord sur la gouvernance mondiale de l'IA offrira des solutions multilatérales fondées sur les droits de l'homme.

Mais l'avènement de l'IA générative ne doit pas nous distraire des dommages que la technologie numérique cause déjà à notre monde. La prolifération de la haine et des mensonges dans l'espace numérique cause de graves dommages à l'échelle mondiale - maintenant. Elle alimente les conflits, la mort et la destruction - maintenant. Elle menace la démocratie et les droits de l'homme — maintenant. Cela sape la santé publique et l'action climatique - maintenant.

Lorsque les médias sociaux ont émergé il y a une génération, les plateformes numériques ont été adoptées comme de nouvelles façons passionnantes de se connecter. Et, en effet, ils ont soutenu les communautés en temps de crise, élevé les voix marginalisées et aidé à mobiliser les mouvements mondiaux pour la justice raciale et l'égalité des sexes. Les plateformes de médias sociaux ont aidé les Nations Unies à impliquer les gens du monde entier dans notre quête de paix, de dignité et de droits de l'homme sur une planète saine. Mais aujourd'hui, cette même technologie est souvent une source de peur, pas d'espoir.

Les plateformes numériques sont utilisées à mauvais escient pour subvertir la science et propager la désinformation et la haine à des milliards de personnes. Certaines de nos propres missions de maintien de la paix et opérations d'aide humanitaire des Nations Unies ont été ciblées, ce qui rend leur travail encore plus dangereux.

Cette menace mondiale claire et actuelle exige une action mondiale claire et coordonnée.

Notre note d'orientation sur l'intégrité de l'information sur les plateformes numériques propose un cadre pour une réponse internationale [concertée]. Ses propositions visent à créer des garde-fous pour aider les gouvernements à se rassembler autour de lignes directrices qui promeuvent les faits, tout en exposant les complots et les mensonges et en sauvegardant la liberté d'expression et d'information. Et pour aider les entreprises technologiques à résoudre des problèmes éthiques et juridiques difficiles et à construire des modèles commerciaux basés sur un écosystème d'informations sain.

Les gouvernements ont parfois eu recours à des mesures drastiques - y compris des fermetures et des interdictions générales d'Internet - qui n'ont aucune base légale et enfreignent les droits de l'homme. Partout dans le monde, certaines entreprises technologiques ont fait beaucoup trop peu, trop tard pour empêcher leurs plateformes de contribuer à la violence et à la haine.

Les recommandations de ce mémoire visent à rendre l'espace numérique plus sûr et plus inclusif tout en protégeant vigoureusement les droits de l'homme.

Ils éclaireront un Code de conduite des Nations Unies pour l'intégrité de l'information sur les plateformes numériques que nous développons avant le Sommet du futur de l'année prochaine. Le Code de conduite sera un ensemble de principes que nous espérons que les gouvernements, les plateformes numériques et les autres parties prenantes appliqueront volontairement.

Les propositions contenues dans cette note d'orientation, en préparation du Code de conduite, incluent :
  • un engagement des gouvernements, des entreprises technologiques et d'autres parties prenantes à s'abstenir d'utiliser, de soutenir ou d'amplifier la désinformation et les discours de haine à quelque fin que ce soit ;
  • un engagement des gouvernements à garantir un paysage médiatique libre, viable, indépendant et pluriel, avec de solides protections pour les journalistes ;
  • l'application cohérente de politiques et de ressources par les plateformes numériques du monde entier pour éliminer les doubles standards qui permettent aux discours de haine et à la désinformation de prospérer dans certaines langues et certains pays, alors qu'ils sont empêchés plus efficacement dans d'autres ;
  • des protocoles convenus pour une réponse rapide des gouvernements et des plateformes numériques lorsque les enjeux sont les plus importants - en période de conflit et de fortes tensions sociales ;
  • et un engagement des plateformes numériques pour s'assurer que tous les produits tiennent compte de la sécurité, de la confidentialité et de la transparence.

Cela comprend des mesures urgentes et immédiates pour garantir que toutes les applications d'IA sont sûres, sécurisées, responsables et éthiques, et conformes aux obligations en matière de droits de l'homme.

Le mémoire propose que les entreprises technologiques s'engagent à s'éloigner des modèles commerciaux préjudiciables qui privilégient l'engagement au-dessus des droits de l'homme, de la vie privée et de la sécurité. Il suggère que les annonceurs - qui sont profondément impliqués dans la monétisation et la diffusion de contenus préjudiciables - devraient assumer la responsabilité de l'impact de leurs dépenses. Il reconnaît la nécessité d'un changement fondamental dans les structures d'incitation.

La désinformation et la haine ne doivent pas générer une exposition maximale et des profits massifs.

Le mémoire suggère que les utilisateurs - y compris les jeunes qui sont particulièrement vulnérables - devraient avoir plus d'influence sur les décisions politiques, et il propose que les plateformes numériques s'engagent en faveur de la transparence des données. Les utilisateurs doivent pouvoir accéder à leurs propres données. Les chercheurs devraient avoir accès aux vastes quantités de données générées par les plateformes numériques, tout en respectant la vie privée des utilisateurs.

J'espère que cette note d'orientation sera une contribution utile aux discussions en amont du Sommet du futur.

Nous comptons sur un large engagement et des contributions solides de toutes les parties prenantes alors que nous travaillons à l'élaboration d'un code de conduite des Nations Unies pour l'intégrité de l'information sur les plateformes numériques.

Nous n'avons pas un instant à perdre et je vous remercie de votre attention et de votre présence.

Source : ONU

Et vous ?

Que pensez-vous de l’idée d’un organe de surveillance mondial de l’IA comme l’agence nucléaire ?
Quels sont les principaux défis et opportunités liés à la gouvernance de l’IA ?
Quel rôle l’ONU peut-elle jouer pour promouvoir une utilisation éthique et responsable de l’IA ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de mith06
Membre expérimenté https://www.developpez.com
Le 16/06/2023 à 11:34
Quand ils vont se rendre compte qu "l'IA" permet de faire de la surveillance de masse, ils vont renommer ca en "algorithme à réseaux de neurone profond" pour contourner leur propre interdiction

les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes d'évaluation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits ;
Le modèle Chinois c'est leur rêve....

les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation.
Normalement tout c'est qui n'est pas interdit est autorisé.
Mais pour ces gens tout ce qui n'est pas autorisé devrait être interdit.
5  1 
Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 07/02/2024 à 22:16
Encore une étude de greenwashing
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/03/2024 à 11:22
Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!
4  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 10/04/2024 à 8:28
Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.
4  0 
Avatar de mach1974
Membre averti https://www.developpez.com
Le 13/12/2023 à 16:20
Bonjour,
Un peu de rationalisation que diable. On reste sur de l'ia qui calcule les corrélations et en tire des arbres causaux sans décrire les mécaniques même avec LIME et SHAPE, alors que l'analyse grammaticale avec les COI et COD permet de déterminer le sujet et le complément , ce qui permet une logique de prédicat avec le respect des 3 lois d'ASIMOV. C'est un cauchemar. On va voir revenir le temps des sorciers même si Athur C Clarke parle de magie comme la techno qui disparaît. On va élever l'ordinateur au rang de Dieu dans la prochaine étape . C'est bien la peine de faire du modèle checking dans la norme ISO179 pour l'aéronautique ou dans le ferroviaire ....
2  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 10/04/2024 à 8:01
Citation Envoyé par Jade Emy Voir le message
Il est essentiel de se pencher sur le type d'impact environnemental que l'IA peut finir par avoir. Cependant, il s'avère que l'IA pourrait en fait produire moins d'émissions de carbone que les humains, ce qui la rendrait plus durable. L'IA émet des centaines de fois moins de gaz à effet de serre que l'homme lorsqu'il s'agit d'écrire et de créer des images.
C'est une analyse intéressante mais est ce que ça veut dire qu'utiliser une IA émet moins de carbone qu'utiliser une personne?
Non, pour une raison simple:
Quand la personne travaille et pas l'IA, l'IA n'émet rien
Quand l'IA travaille et pas la personne, la personne émet toujours.
Donc il faudrait comparer le surplus d'émission de la personne quand elle travaille à l'IA.
Les autres facteurs sont nombreux :
L'IA produit (probablement) peu de carbone quand elle travaille parce qu'elle est plus rapide que l'homme mais combien émet son apprentissage?
L'IA nécessite une revue de son travail plus importante que la personne donc combien émet la différence de revue?
Combien d'IA différente faut il pour remplacer toutes les taches d'une personne?
Et je n'ai pas encore parlé de l'apport social d'une personne...

Pensez-vous que cette étude est crédible ou pertinente ?
L'étude en tant que telle à l'air crédible (faite de façon honnête et rigoureuse) par contre le but de celle ci me parait beaucoup moins pertinent.
Quelle conclusion tirer? Qu'il faut faire travailler les IA plutôt que les personnes pour l'édition? Ce n'est pas ce que disent les chercheurs, c'est pourtant ce que nous lisons.
Qui a financer cette étude? Dans quel but? Avec ces réponses nous aurons peut être une clarification de sa pertinence.
On sait que l'un des auteur détient des actions chez NVIDIA mais je n'ai rien trouvé chez le financeur.
Quel est votre avis sur le sujet ?
L'IA n'a rien d'écologique parce qu'elle ajoute de la production de carbone à la production humaine, attaquer la question par cet angle est absurde. (A moins que l'on décide de "faire disparaitre" les personnes qui deviennent "inutiles" mais on dérive vers des gros problèmes éthiques).
Par contre l'IA a d'autres avantages qui méritent d'être étudiés.

Des gens essayent d'aborder les sujets de façon "rationnelle" en ce moment pour transformer des solutions plus ou moins absurdes en bon sens.
La Science n'apporte pas toujours les bonnes réponses aux problèmes parce qu'elle ignore les sciences humaines ou l'éthique.
Pourtant il me semble qu'Asimov nous avait déjà prévenu que cette méthode ne fonctionnait pas.
2  0 
Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 15/06/2023 à 1:24
Je suis d'accord avec cette loi dans les grandes ligne.

Par contre j'ai une interrogation ; plus ça va, plus les IA type OpanAI vont pouvoir êtres fabriqués par des individus, et plus forcément par des entreprises. Du coup, cela risque d'être impossible à réguler pour l'EU. Et si régulation, passage dans un régime autoritaire de censure sur les DNS et ainsi de suite... Surtout que les initiatives comme celle-si se multiplies : https://gpt4all.io/index.html

D'ailleurs :

Les entreprises et les groupes industriels avertissent toutefois que l'Europe doit trouver un juste équilibre. Sam Altman, PDG d'OpenAI, a exprimé son soutien à certains garde-fous en matière d'IA et a signé, avec d'autres dirigeants d'entreprises technologiques, une mise en garde contre les risques qu'elle représente pour l'humanité. Mais il a également déclaré que c'était "une erreur d'imposer une réglementation lourde dans ce domaine dès maintenant". Microsoft et IBM ont salué le vote de mercredi, mais attendent avec impatience que la législation proposée soit affinée. Mais d'autres acteurs comme Meta semblent minimiser les risques.
C'est justement Meta qui à ouvert les sources de ses algorithmes au chercheurs, puis qui a été victime d'une fuite.
1  0 
Avatar de Jules34
Membre chevronné https://www.developpez.com
Le 27/10/2023 à 9:41
il prévoit la création d'un organisme international de l'IA
Bin si c'est pour faire l'OMS de l'IA ça va plus nous rapprocher de la fin du monde que nous en éloigner

Chaque organisme mondial supplémentaire réduit un peu plus le droit des peuples à disposer d'eux même.
1  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 15/11/2023 à 15:30
Mon avis est double. D'un coté, je pense qu'il est important et urgent de légiférer, d'un autre, qu'il est nécessaire de préserver les acteurs moindres dans leurs recherches au niveau de l'IA.
Je pense que la législation devrait mettre des barrières aux grandes entreprises afin de ne pas leur laisser le champ libre et de tuer dans l'œuf toute concurrence, comme ils savent si bien le faire.

Mais gageons que le poids des billets de ces cadors, soit plus audible que toutes les objections raisonnables émises par un groupe moins... pourvus de liasses.
1  0 
Avatar de TJ1985
Membre chevronné https://www.developpez.com
Le 17/11/2023 à 8:58
J'imagine les débats le jour où l'Homme à domestiqué le Feu...

Réguler l'IA comme l'entendent les politicards et les bien-pensants revient à pratiquer une stérilisation intellectuelle. Ce n'est pas parce que de plus en plus d'utilisateurs de l'informatique ne sont pas capables d'additionner 1 et 1 qu'il faut priver ceux qui savent que ça fait 10 de poursuivre les développements les plus prometteurs de ces derniers temps.

Les catastrophistes qui prédisent que mon Raspberry Pi tournant Llama va déclencher la fin du monde sont pathétiques, et dangereux, car ils offrent une occasion aux sempiternels protecteurs des populations une magnifique occasion de tenter encore une fois de prouver leur utilité.

Les travaux de Yann LeCun visant à contextualiser les données des LLMs sont prometteurs et pourraient aboutir à instiller un brin d'intelligence dans ces systèmes, qui sont pour le moment d'une totale indigence dès lors qu'on tente de les extraire de le leur cadre d'entraînement. Mais sur le fond, observez vous, voyez comment le vivant est fabriqué, évaluez les flux d'informations reçu en permanence par notre système nerveux central et comparez ces volumes à ceux que reçoit une système d'IA dans son boîtier...

Si nous ne voulons pas souffrir de l'émergence de l'IA au sens général, il faut que nous nous formions à son usage, que nous en comprenions les bases de fonctionnement et puissions en tirer parti. Nous devons aussi en mesurer les limites, savoir d'où ça vient. Nous devons en quelque sorte (re)devenir intelligents et cesser de sauter sur chaque superstition qui passe par là.
En bref, nous devons prouver que nous restons plus aptes que n'importe laquelle de nos créa-tion-tures (voilà t'y pas que je m'y mets aussi !). Nous priver d'un bulldozer nous empêchera de construire les routes dont nous aurons besoin dans le futur.
1  0