IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI, xAI, Google, Meta et d'autres entreprises d'IA s'engagent sur la sécurité, promettant de ne pas déployer d'IA si les risques graves ne peuvent pas être pris en compte et atténués

Le , par Stéphane le calme

66PARTAGES

5  0 
Récemment, un événement marquant a eu lieu, réunissant les géants de l’IA autour d’un engagement commun pour la sécurité. Des entreprises telles qu’Amazon, Google, Meta, Microsoft, IBM, Mistral AI, OpenAI dirigée par Sam Altman, xAI d’Elon Musk et le développeur chinois Zhipu AI, ont signé un pacte de sécurité, promettant de ne pas déployer des modèles "Frontier AI” si les risques sévères ne peuvent être atténués. Au total 16 entreprises ont signé ce pacte.

« Frontier AI » (que l'on pourrait traduire par « IA avant-gardiste ») est un terme générique utilisé pour décrire les modèles d'IA qui égalent ou surpassent les modèles d'IA de pointe existants, que ce soit en termes de capacités ou de variété de tâches. À l'heure actuelle, « l'IA d'avant-garde » désigne les modèles fondamentaux ou l'IA à usage général (GPAI). Contrairement aux systèmes d'IA restreints, ces systèmes peuvent effectuer un large éventail de tâches, y compris le traitement du langage et des images. Ils fonctionnent souvent comme une sorte de plateforme, que d'autres développeurs peuvent utiliser pour créer des applications. Ainsi, les modèles d'IA les plus avancés sont classés dans la catégorie de l'IA frontière.

Le terme « frontière » ne décrit pas une propriété d'un modèle d'IA ; il met l'accent sur la façon dont il se compare à l'IA existante. Les modèles d'avant-garde d'aujourd'hui peuvent cesser d'être considérés comme tels lorsqu'ils sont surpassés par d'autres modèles d'IA. Par exemple, la nouvelle version du célèbre modèle de langage multimodal GPT-4 de l'OpenAI est plus rapide et plus précise que son prédécesseur, créant ainsi une nouvelle frontière pour l'IA.

En raison de leurs capacités techniques et de calcul sans précédent, et de la grande variété de tâches qu'elles peuvent accomplir, les IA d'avant-garde engendrent également de l'incertitude. Une partie de cette incertitude réside dans leur capacité à nuire à la vie et au bien-être des personnes, ou à l'environnement.

Plusieurs entreprises signent une nouvelle série d'engagements volontaires sur la sécurité de l'IA

Les gouvernements britannique et sud-coréen ont annoncé que les principales entreprises d'intelligence artificielle avaient signé une nouvelle série d'engagements volontaires sur la sécurité de l'IA. Ces entreprises, parmi lesquelles figurent les géants de la technologie que sont Amazon, Google, Meta et Microsoft, ainsi que OpenAI, dirigée par Sam Altman, xAI, d'Elon Musk, et le développeur chinois Zhipu AI, publieront des cadres décrivant la manière dont elles mesureront les risques de leurs modèles d'intelligence artificielle « pionniers ».

Les groupes se sont engagés à « ne pas développer ou déployer un modèle du tout » si des risques graves ne peuvent être atténués, ont déclaré les deux gouvernements avant l'ouverture d'un sommet mondial sur l'IA à Séoul mardi.

Cette annonce s'inscrit dans le prolongement de la déclaration dite de Bletchley, faite lors du premier sommet sur la sécurité de l'IA organisé par le Premier ministre britannique, Rishi Sunak, en novembre.

Pour mémoire, à travers la déclaration de Bletchley, les signataires s'engagent en faveur d'une coopération internationale inclusive pour répondre aux préoccupations en matière de sécurité de l'IA, en proposant des mesures telles que des normes éthiques, la transparence, des tests de sécurité et l'éducation du public. En outre, elle soutient la création d'un réseau international de recherche axé sur la sécurité de l'IA d'avant-garde. La déclaration de Bletchley repose sur cinq points fondamentaux, à savoir :
  • insister sur la nécessité d'une IA sûre et responsable : la déclaration de Bletchley souligne l'importance de développer une IA sûre, centrée sur l'être humain, digne de confiance et responsable, en mettant l'accent sur la protection des droits de l'homme et en veillant à ce qu'elle soit largement bénéfique ;
  • reconnaître les opportunités et les risques : la déclaration de Bletchley reconnaît le vaste potentiel de l'IA et les risques qui y sont associés, en particulier dans le cas de l'IA exploratoire, qui possède des capacités puissantes et potentiellement dangereuses qui restent mal comprises et imprévisibles ;
  • s'engager en faveur d'une coopération inclusive : la déclaration de Bletchley s'engage à collaborer entre les nations et les parties prenantes, en plaidant pour une coopération inclusive afin d'aborder les risques de sécurité liés à l'IA. Cette collaboration se fera par l'intermédiaire des plateformes internationales existantes et d'autres initiatives pertinentes ;
  • proposer des mesures pour la sécurité de l'IA : la déclaration de Bletchley propose diverses mesures pour garantir la sécurité de l'IA, notamment l'établissement de normes éthiques, la transparence et la responsabilité, des procédures rigoureuses de test et d'évaluation de la sécurité, ainsi que la sensibilisation du public et la promotion de l'éducation sur les questions liées à l'IA ;
  • soutenir la recherche internationale : la déclaration de Bletchley soutient la création d'un réseau international de recherche scientifique axé sur la sécurité de l'IA. Cette recherche fournira des informations précieuses pour l'élaboration des politiques et le bien public, tout en contribuant à des dialogues internationaux plus larges sur l'IA.

« Ces engagements garantissent que les principales entreprises d'IA du monde feront preuve de transparence et de responsabilité quant à leurs projets de développement d'une IA sûre », a déclaré Sunak dans un communiqué. « Ils créent un précédent en matière de normes mondiales de sécurité de l'IA, qui permettra de tirer parti de cette technologie transformatrice ».


Selon un communiqué décrivant l'accord, les entreprises d'IA « évalueront les risques posés par leurs modèles ou systèmes d'avant-garde... y compris avant de déployer ce modèle ou ce système et, le cas échéant, avant et pendant la formation ». Les entreprises définiront également les « seuils à partir desquels les risques graves posés par un modèle ou un système, s'ils ne sont pas atténués de manière adéquate, seraient jugés intolérables » et la manière dont ces mesures d'atténuation seront mises en œuvre.

« Le domaine de la sécurité de l'IA évolue rapidement et nous sommes particulièrement heureux d'approuver l'accent mis par les engagements sur l'affinement des approches parallèlement à la science », a déclaré Anna Makanju, vice-présidente des affaires mondiales chez OpenAI. « Nous restons déterminés à collaborer avec d'autres laboratoires de recherche, des entreprises et des gouvernements pour faire en sorte que l'IA soit sûre et profite à l'ensemble de l'humanité. »


Une annonce qui fait écho aux « engagements volontaires » pris à la Maison Blanche en juillet

L'annonce de mardi fait écho aux « engagements volontaires » pris à la Maison Blanche en juillet de l'année dernière par Amazon, Anthropic, Google, Inflection AI, Meta, Microsoft et OpenAI « pour aider à progresser vers un développement sûr, sécurisé et transparent de la technologie de l'IA ». Toutefois, la manière dont les entreprises pourraient être tenues de rendre des comptes si elles ne respectent pas leurs engagements n'est pas claire.

Le communiqué de mardi indique que les 16 entreprises « assureront la transparence publique » de la mise en œuvre de leurs engagements, « sauf dans la mesure où cela augmenterait les risques ou divulguerait des informations commerciales sensibles dans une mesure disproportionnée par rapport aux avantages pour la société ».

S'exprimant à Séoul avant une réunion virtuelle des dirigeants mardi soir, la ministre britannique des sciences, Michelle Donelan, a déclaré au Financial Times que les accords volontaires conclus à Bletchley avaient porté leurs fruits. « C'est pourquoi nous pensons que ces accords continueront à porter leurs fruits », a déclaré Donelan.

« Mais il ne s'agit pas seulement de savoir ce que les entreprises peuvent faire de plus, il s'agit aussi de savoir ce que les pays peuvent faire de plus », a-t-elle ajouté. Donelan a confirmé que le gouvernement chinois serait représenté lors des réunions organisées le deuxième jour du sommet, mercredi. Dan Hendrycks, conseiller en sécurité auprès de xAI, a déclaré que les engagements volontaires contribueraient à « poser les bases d'une réglementation nationale concrète ».

Mais Donelan a réaffirmé la position du Royaume-Uni selon laquelle il était trop tôt pour envisager une législation visant à renforcer la sécurité de l'IA. « Nous devons mieux maîtriser les risques », a-t-elle déclaré, précisant que le gouvernement britannique offrirait jusqu'à 8,5 millions de livres sterling de subventions pour étudier les risques liés à l'IA, tels que les “deepfakes” et les cyberattaques. Elle a ajouté que si le gouvernement britannique avait initié une législation sur la question l'année dernière, « au moment où elle sortirait, elle serait probablement dépassée ».


Conclusion

Alors que l’industrie de l’IA se concentre de plus en plus sur les préoccupations les plus pressantes, telles que la désinformation, la sécurité des données, les biais et le maintien de l’humain dans la boucle, cet accord représente un pas en avant significatif pour garantir que l’IA soit sûre et bénéfique pour toute l’humanité1.

Ce pacte de sécurité signé par les grandes entreprises d’IA est un jalon crucial dans la quête d’un développement responsable et éthique de l’IA. Il reflète une prise de conscience collective de l’importance de la sécurité dans l’avancement de cette technologie transformatrice et pose les bases d’une collaboration internationale pour un avenir où l’IA est à la fois puissante et sûre.

Source : AI Seoul Summit

Et vous ?

Quelles mesures concrètes les entreprises d’IA devraient-elles prendre pour garantir la sécurité et l’éthique de leurs technologies ?
Comment les consommateurs peuvent-ils s’assurer que les entreprises respectent leurs engagements en matière de sécurité de l’IA ?
Quel rôle les gouvernements devraient-ils jouer dans la régulation de l’IA pour protéger les intérêts publics ?
La transparence est-elle suffisante pour gagner la confiance du public envers l’IA, ou faut-il des mesures supplémentaires ?
Comment pouvons-nous équilibrer l’innovation rapide dans le domaine de l’IA avec la nécessité de prévenir les risques potentiels ?
Les pactes de sécurité comme celui-ci sont-ils suffisants pour prévenir les abus de l’IA, ou avons-nous besoin d’une législation internationale ?
Quelles sont les implications éthiques de l’utilisation de l’IA dans des domaines sensibles tels que la surveillance et la prise de décision judiciaire ?
En quoi la collaboration entre les grandes entreprises d’IA peut-elle contribuer à un développement plus sûr de l’IA ?
Devrions-nous craindre une course aux armements en IA, et si oui, comment la prévenir ?
Quelles sont les conséquences potentielles si une entreprise ne respecte pas le pacte de sécurité de l’IA ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 20/06/2024 à 19:00
Je pense que le résultat le plus probable est celui de l'abondance, où les biens et les services sont disponibles pour tout le monde. Il n'y a pas de pénurie pour chacun d'entre nous. Ce serait une randonnée universelle. Le travail serait facultatif
Encore un qui a bien suivi ses cours d'économie et qui est pas foutu de comprendre qu'une croissance infinie dans un monde fini est impossible. Mais comment font tous les "grands" de notre monde pour sombrer dans ce schéma de pensées qu'un enfant de 7 ans trouverait louche ?

Si l'IA peut faire tout ce que vous pouvez faire, mais en mieux, à quoi bon faire les choses ? Je pense qu'il y aura une crise existentielle
Merci l'IA qui fait les vidanges, débouche les WC, brasse la bière et coupe des arbres pour en faire du PQ.
Est-ce qu'il a une armée de serviteurs pour à ce point oublier que le quotidien n'est pas exclusivement constitué d'ordinateurs ?
5  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 21/06/2024 à 1:53
Citation Envoyé par _toma_ Voir le message
Encore un qui a bien suivi ses cours d'économie et qui est pas foutu de comprendre qu'une croissance infinie dans un monde fini est impossible. Mais comment font tous les "grands" de notre monde pour sombrer dans ce schéma de pensées qu'un enfant de 7 ans trouverait louche ?

Merci l'IA qui fait les vidanges, débouche les WC, brasse la bière et coupe des arbres pour en faire du PQ.
Est-ce qu'il a une armée de serviteurs pour à ce point oublier que le quotidien n'est pas exclusivement constitué d'ordinateurs ?
Il nous prend juste pour des abrutis. L'homme le plus riche du monde perdrait tout son pouvoir, s'il n'y avait plus besoin de travailler pour vivre.
2  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 23/05/2024 à 10:36
Ils promettent de ne pas faire des choses qui sont déjà faîtes...
1  0 
Avatar de Kannagi
Expert éminent sénior https://www.developpez.com
Le 24/05/2024 à 20:48
Citation Envoyé par SamuelLamour Voir le message
sition entre optimisme et pessimisme. Il s’agit de trouver un juste milieu, où nous pouvons encourager les innovations tout en mettant en place des gardes-fous appropriés pour prévenir les abus et les dangers potentiels.

Qu’en pensez-vous ? Est-ce que la comparaison de l’IA avec l’arme nucléaire vous semble justifiée ? Pensez-vous qu’on devrait privilégier une approche plus prudente ou plus optimiste dans le développement de l’IA ?
Qu'elle sont ridicule est sans aucun fondement scientifique.

Déjà parce qu'elle présupposent que ces IA sont dangereuse parce que peuvent être consciente, sauf que y'a aucune théorie là dessus.
Le second point , ça présuppose que les algos peuvent créer une conscience , préposition qui ne se base sur aucune observation...
Et troisième point qu'on oublie souvent , la conscient fait probablement partie du vivant , et donc que ça devrait plus de ce coté là qu'une théorie/explication viendrait.

Donc non heureusement qu'il y'a pas de débat sérieux sur ça , parce que ça serait ridicule.

Si on parle de L'IA ce qu'elle est , donc un outils statistique , oui mais bon pas sur que cette technologie ira aussi loin qu'elle le promettent.

Celà me fait penser à la génétique il y'a 20 ans :
https://www.courrierinternational.co...n-grand-public
(enfin meme 30 ans)

Au final , le résultat de tout ces investissements ?
Et la génétique souffrait du même problème que l'IA actuelle (enfin en moins pire) , pas de théorie solide et ds promesses de monts et merveilles avec !
1  0 
Avatar de Kannagi
Expert éminent sénior https://www.developpez.com
Le 28/05/2024 à 0:00
Citation Envoyé par Fluxgraveon Voir le message
Mmm, juste une question : à combien estimez-vous cette probabilité ?
Franchement je dirais pour moi facile 90%, et la chose pour moi la plus frappante est ceci :
Les neurones sont bien positionné , et malgré la différence des individus et la variation des connexions des neurones, celà créer toujours une sacré cohérence avec leur environnement.
Il y'a un autre systeme dans la nature qui a ce même mécanisme : la génétique

Et je pense que les deux sont les mêmes mécanismes.

Et le vivant à les mêmes problématique que la conscience, malgré qu'on connaît tout de leur processus physique , cela ne nous apprend rien sur "comment ça marche".

Et le dernier point souvent oublié , un neurone est une cellule avant tout (il a un code ADN, tout comme toute les cellules de notre corps).
1  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 09/06/2024 à 17:15
Je ne savais pas le 6 juin lorsque j'ai posté ceci :Mon avis sur le remplacement des emplois par l'IA que les entreprises technologiques de la Silicon Valley allaient faire du lobbying au près des sénateurs californiens pour empêcher le kill switch lors de certains résultats de l'IA. Oui l'IA américaine va devenir dangereuse à cause de ses hallucinations que nous ne pourrons détecter puisque inaccessibles à la compréhension humaine à la différence de certaines IA européennes qui resteront explicables et plus intelligentes que les IA américaines et chinoises.
1  0 
Avatar de phil995511
Membre éprouvé https://www.developpez.com
Le 08/10/2024 à 12:07
Le mensonge ne peut en aucun cas être rattaché à la liberté d'expression, il doit être clairement proscrit de toute forme de politique, sans quoi certains politiciens continueront à mener des campagnes de désinformation, de dénigrement d'autrui, voir de tentatives de déstabilisation de systèmes démocratiques mis en place !!!
1  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 24/05/2024 à 11:45
Ce qui m'énerve autant que ça me fait rire c'est de voir à quel point cette caste de la sillicon valley est déconnectée de la réalité et des gens qui les entourent :

dépasseront ce que nous voulons, en tant que nation, donner sans permission à nos propres citoyens ainsi qu'à nos concurrents.
Depuis quand vous décidez ce que vous voulez "en tant que nation" donner aux citoyens (la nation) ?????

Les masques tombent d'eux même c'est pas croyable
0  0 
Avatar de SamuelLamour
Nouveau Candidat au Club https://www.developpez.com
Le 24/05/2024 à 15:39
Je trouve ce débat sur l’IA vraiment fascinant et important. Elon Musk et Bill Gates ont tous deux des points de vue très intéressants.

Personnellement, je comprends pourquoi Elon Musk compare l’IA à une menace nucléaire. C’est une façon très percutante de souligner à quel point les conséquences d’une IA incontrôlée pourraient être graves. Les armes nucléaires sont strictement régulées en raison de leur potentiel destructeur immédiat et massif. De la même manière, une super-intelligence numérique pourrait, en théorie, évoluer bien au-delà de notre contrôle et poser des risques existentielles. Cette comparaison, bien qu’alarmante, vise à nous faire prendre conscience de l’importance d’une régulation stricte dès maintenant, avant qu’il ne soit trop tard.

Cependant, je trouve aussi le point de vue de Bill Gates très pertinent. Il voit l’IA comme une technologie qui, tout comme l’énergie nucléaire, possède à la fois un potentiel immense pour le bien et des risques significatifs. Cette approche plus équilibrée me parle beaucoup, car elle reconnaît les opportunités tout en restant conscient des dangers. En effet, l’IA pourrait transformer positivement notre société à bien des égards, mais elle pourrait aussi être utilisée à des fins destructrices, notamment dans le domaine militaire.

Je pense que nous devons prendre au sérieux les mises en garde d’Elon Musk, même si elles peuvent sembler alarmistes. Son insistance sur la création d’un organisme de réglementation pour superviser le développement de l’IA me paraît être une mesure de précaution nécessaire. En même temps, adopter une perspective équilibrée comme celle de Bill Gates nous permet de ne pas sombrer dans une vision trop pessimiste et de reconnaître les nombreux avantages que l’IA peut offrir.

En fin de compte, je crois que le débat sur l’IA ne doit pas se limiter à une opposition entre optimisme et pessimisme. Il s’agit de trouver un juste milieu, où nous pouvons encourager les innovations tout en mettant en place des gardes-fous appropriés pour prévenir les abus et les dangers potentiels.

Qu’en pensez-vous ? Est-ce que la comparaison de l’IA avec l’arme nucléaire vous semble justifiée ? Pensez-vous qu’on devrait privilégier une approche plus prudente ou plus optimiste dans le développement de l’IA ?
0  0 
Avatar de Fluxgraveon
Membre actif https://www.developpez.com
Le 27/05/2024 à 14:11
Et troisième point qu'on oublie souvent , la conscient fait probablement partie du vivant
Mmm, juste une question : à combien estimez-vous cette probabilité ?

Peut-être sommes-nous comme dans une expérience de Miller-Urey pour comprendre la nature de l'intellection en tentant de faire émerger de la "conscience" à partir d'une "soupe algorithmique" ? N'est-ce pas trop hérétique cela dit ?
0  0