IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI, xAI, Google, Meta et d'autres entreprises d'IA s'engagent sur la sécurité, promettant de ne pas déployer d'IA si les risques graves ne peuvent pas être pris en compte et atténués

Le , par Stéphane le calme

51PARTAGES

5  0 
Récemment, un événement marquant a eu lieu, réunissant les géants de l’IA autour d’un engagement commun pour la sécurité. Des entreprises telles qu’Amazon, Google, Meta, Microsoft, IBM, Mistral AI, OpenAI dirigée par Sam Altman, xAI d’Elon Musk et le développeur chinois Zhipu AI, ont signé un pacte de sécurité, promettant de ne pas déployer des modèles "Frontier AI” si les risques sévères ne peuvent être atténués. Au total 16 entreprises ont signé ce pacte.

« Frontier AI » (que l'on pourrait traduire par « IA avant-gardiste ») est un terme générique utilisé pour décrire les modèles d'IA qui égalent ou surpassent les modèles d'IA de pointe existants, que ce soit en termes de capacités ou de variété de tâches. À l'heure actuelle, « l'IA d'avant-garde » désigne les modèles fondamentaux ou l'IA à usage général (GPAI). Contrairement aux systèmes d'IA restreints, ces systèmes peuvent effectuer un large éventail de tâches, y compris le traitement du langage et des images. Ils fonctionnent souvent comme une sorte de plateforme, que d'autres développeurs peuvent utiliser pour créer des applications. Ainsi, les modèles d'IA les plus avancés sont classés dans la catégorie de l'IA frontière.

Le terme « frontière » ne décrit pas une propriété d'un modèle d'IA ; il met l'accent sur la façon dont il se compare à l'IA existante. Les modèles d'avant-garde d'aujourd'hui peuvent cesser d'être considérés comme tels lorsqu'ils sont surpassés par d'autres modèles d'IA. Par exemple, la nouvelle version du célèbre modèle de langage multimodal GPT-4 de l'OpenAI est plus rapide et plus précise que son prédécesseur, créant ainsi une nouvelle frontière pour l'IA.

En raison de leurs capacités techniques et de calcul sans précédent, et de la grande variété de tâches qu'elles peuvent accomplir, les IA d'avant-garde engendrent également de l'incertitude. Une partie de cette incertitude réside dans leur capacité à nuire à la vie et au bien-être des personnes, ou à l'environnement.

Plusieurs entreprises signent une nouvelle série d'engagements volontaires sur la sécurité de l'IA

Les gouvernements britannique et sud-coréen ont annoncé que les principales entreprises d'intelligence artificielle avaient signé une nouvelle série d'engagements volontaires sur la sécurité de l'IA. Ces entreprises, parmi lesquelles figurent les géants de la technologie que sont Amazon, Google, Meta et Microsoft, ainsi que OpenAI, dirigée par Sam Altman, xAI, d'Elon Musk, et le développeur chinois Zhipu AI, publieront des cadres décrivant la manière dont elles mesureront les risques de leurs modèles d'intelligence artificielle « pionniers ».

Les groupes se sont engagés à « ne pas développer ou déployer un modèle du tout » si des risques graves ne peuvent être atténués, ont déclaré les deux gouvernements avant l'ouverture d'un sommet mondial sur l'IA à Séoul mardi.

Cette annonce s'inscrit dans le prolongement de la déclaration dite de Bletchley, faite lors du premier sommet sur la sécurité de l'IA organisé par le Premier ministre britannique, Rishi Sunak, en novembre.

Pour mémoire, à travers la déclaration de Bletchley, les signataires s'engagent en faveur d'une coopération internationale inclusive pour répondre aux préoccupations en matière de sécurité de l'IA, en proposant des mesures telles que des normes éthiques, la transparence, des tests de sécurité et l'éducation du public. En outre, elle soutient la création d'un réseau international de recherche axé sur la sécurité de l'IA d'avant-garde. La déclaration de Bletchley repose sur cinq points fondamentaux, à savoir :
  • insister sur la nécessité d'une IA sûre et responsable : la déclaration de Bletchley souligne l'importance de développer une IA sûre, centrée sur l'être humain, digne de confiance et responsable, en mettant l'accent sur la protection des droits de l'homme et en veillant à ce qu'elle soit largement bénéfique ;
  • reconnaître les opportunités et les risques : la déclaration de Bletchley reconnaît le vaste potentiel de l'IA et les risques qui y sont associés, en particulier dans le cas de l'IA exploratoire, qui possède des capacités puissantes et potentiellement dangereuses qui restent mal comprises et imprévisibles ;
  • s'engager en faveur d'une coopération inclusive : la déclaration de Bletchley s'engage à collaborer entre les nations et les parties prenantes, en plaidant pour une coopération inclusive afin d'aborder les risques de sécurité liés à l'IA. Cette collaboration se fera par l'intermédiaire des plateformes internationales existantes et d'autres initiatives pertinentes ;
  • proposer des mesures pour la sécurité de l'IA : la déclaration de Bletchley propose diverses mesures pour garantir la sécurité de l'IA, notamment l'établissement de normes éthiques, la transparence et la responsabilité, des procédures rigoureuses de test et d'évaluation de la sécurité, ainsi que la sensibilisation du public et la promotion de l'éducation sur les questions liées à l'IA ;
  • soutenir la recherche internationale : la déclaration de Bletchley soutient la création d'un réseau international de recherche scientifique axé sur la sécurité de l'IA. Cette recherche fournira des informations précieuses pour l'élaboration des politiques et le bien public, tout en contribuant à des dialogues internationaux plus larges sur l'IA.

« Ces engagements garantissent que les principales entreprises d'IA du monde feront preuve de transparence et de responsabilité quant à leurs projets de développement d'une IA sûre », a déclaré Sunak dans un communiqué. « Ils créent un précédent en matière de normes mondiales de sécurité de l'IA, qui permettra de tirer parti de cette technologie transformatrice ».


Selon un communiqué décrivant l'accord, les entreprises d'IA « évalueront les risques posés par leurs modèles ou systèmes d'avant-garde... y compris avant de déployer ce modèle ou ce système et, le cas échéant, avant et pendant la formation ». Les entreprises définiront également les « seuils à partir desquels les risques graves posés par un modèle ou un système, s'ils ne sont pas atténués de manière adéquate, seraient jugés intolérables » et la manière dont ces mesures d'atténuation seront mises en œuvre.

« Le domaine de la sécurité de l'IA évolue rapidement et nous sommes particulièrement heureux d'approuver l'accent mis par les engagements sur l'affinement des approches parallèlement à la science », a déclaré Anna Makanju, vice-présidente des affaires mondiales chez OpenAI. « Nous restons déterminés à collaborer avec d'autres laboratoires de recherche, des entreprises et des gouvernements pour faire en sorte que l'IA soit sûre et profite à l'ensemble de l'humanité. »


Une annonce qui fait écho aux « engagements volontaires » pris à la Maison Blanche en juillet

L'annonce de mardi fait écho aux « engagements volontaires » pris à la Maison Blanche en juillet de l'année dernière par Amazon, Anthropic, Google, Inflection AI, Meta, Microsoft et OpenAI « pour aider à progresser vers un développement sûr, sécurisé et transparent de la technologie de l'IA ». Toutefois, la manière dont les entreprises pourraient être tenues de rendre des comptes si elles ne respectent pas leurs engagements n'est pas claire.

Le communiqué de mardi indique que les 16 entreprises « assureront la transparence publique » de la mise en œuvre de leurs engagements, « sauf dans la mesure où cela augmenterait les risques ou divulguerait des informations commerciales sensibles dans une mesure disproportionnée par rapport aux avantages pour la société ».

S'exprimant à Séoul avant une réunion virtuelle des dirigeants mardi soir, la ministre britannique des sciences, Michelle Donelan, a déclaré au Financial Times que les accords volontaires conclus à Bletchley avaient porté leurs fruits. « C'est pourquoi nous pensons que ces accords continueront à porter leurs fruits », a déclaré Donelan.

« Mais il ne s'agit pas seulement de savoir ce que les entreprises peuvent faire de plus, il s'agit aussi de savoir ce que les pays peuvent faire de plus », a-t-elle ajouté. Donelan a confirmé que le gouvernement chinois serait représenté lors des réunions organisées le deuxième jour du sommet, mercredi. Dan Hendrycks, conseiller en sécurité auprès de xAI, a déclaré que les engagements volontaires contribueraient à « poser les bases d'une réglementation nationale concrète ».

Mais Donelan a réaffirmé la position du Royaume-Uni selon laquelle il était trop tôt pour envisager une législation visant à renforcer la sécurité de l'IA. « Nous devons mieux maîtriser les risques », a-t-elle déclaré, précisant que le gouvernement britannique offrirait jusqu'à 8,5 millions de livres sterling de subventions pour étudier les risques liés à l'IA, tels que les “deepfakes” et les cyberattaques. Elle a ajouté que si le gouvernement britannique avait initié une législation sur la question l'année dernière, « au moment où elle sortirait, elle serait probablement dépassée ».


Conclusion

Alors que l’industrie de l’IA se concentre de plus en plus sur les préoccupations les plus pressantes, telles que la désinformation, la sécurité des données, les biais et le maintien de l’humain dans la boucle, cet accord représente un pas en avant significatif pour garantir que l’IA soit sûre et bénéfique pour toute l’humanité1.

Ce pacte de sécurité signé par les grandes entreprises d’IA est un jalon crucial dans la quête d’un développement responsable et éthique de l’IA. Il reflète une prise de conscience collective de l’importance de la sécurité dans l’avancement de cette technologie transformatrice et pose les bases d’une collaboration internationale pour un avenir où l’IA est à la fois puissante et sûre.

Source : AI Seoul Summit

Et vous ?

Quelles mesures concrètes les entreprises d’IA devraient-elles prendre pour garantir la sécurité et l’éthique de leurs technologies ?
Comment les consommateurs peuvent-ils s’assurer que les entreprises respectent leurs engagements en matière de sécurité de l’IA ?
Quel rôle les gouvernements devraient-ils jouer dans la régulation de l’IA pour protéger les intérêts publics ?
La transparence est-elle suffisante pour gagner la confiance du public envers l’IA, ou faut-il des mesures supplémentaires ?
Comment pouvons-nous équilibrer l’innovation rapide dans le domaine de l’IA avec la nécessité de prévenir les risques potentiels ?
Les pactes de sécurité comme celui-ci sont-ils suffisants pour prévenir les abus de l’IA, ou avons-nous besoin d’une législation internationale ?
Quelles sont les implications éthiques de l’utilisation de l’IA dans des domaines sensibles tels que la surveillance et la prise de décision judiciaire ?
En quoi la collaboration entre les grandes entreprises d’IA peut-elle contribuer à un développement plus sûr de l’IA ?
Devrions-nous craindre une course aux armements en IA, et si oui, comment la prévenir ?
Quelles sont les conséquences potentielles si une entreprise ne respecte pas le pacte de sécurité de l’IA ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jules34
Membre chevronné https://www.developpez.com
Le 23/05/2024 à 10:36
Ils promettent de ne pas faire des choses qui sont déjà faîtes...
1  0 
Avatar de Kannagi
Expert éminent sénior https://www.developpez.com
Le 24/05/2024 à 20:48
Citation Envoyé par SamuelLamour Voir le message
sition entre optimisme et pessimisme. Il s’agit de trouver un juste milieu, où nous pouvons encourager les innovations tout en mettant en place des gardes-fous appropriés pour prévenir les abus et les dangers potentiels.

Qu’en pensez-vous ? Est-ce que la comparaison de l’IA avec l’arme nucléaire vous semble justifiée ? Pensez-vous qu’on devrait privilégier une approche plus prudente ou plus optimiste dans le développement de l’IA ?
Qu'elle sont ridicule est sans aucun fondement scientifique.

Déjà parce qu'elle présupposent que ces IA sont dangereuse parce que peuvent être consciente, sauf que y'a aucune théorie là dessus.
Le second point , ça présuppose que les algos peuvent créer une conscience , préposition qui ne se base sur aucune observation...
Et troisième point qu'on oublie souvent , la conscient fait probablement partie du vivant , et donc que ça devrait plus de ce coté là qu'une théorie/explication viendrait.

Donc non heureusement qu'il y'a pas de débat sérieux sur ça , parce que ça serait ridicule.

Si on parle de L'IA ce qu'elle est , donc un outils statistique , oui mais bon pas sur que cette technologie ira aussi loin qu'elle le promettent.

Celà me fait penser à la génétique il y'a 20 ans :
https://www.courrierinternational.co...n-grand-public
(enfin meme 30 ans)

Au final , le résultat de tout ces investissements ?
Et la génétique souffrait du même problème que l'IA actuelle (enfin en moins pire) , pas de théorie solide et ds promesses de monts et merveilles avec !
1  0 
Avatar de Kannagi
Expert éminent sénior https://www.developpez.com
Le 28/05/2024 à 0:00
Citation Envoyé par Fluxgraveon Voir le message
Mmm, juste une question : à combien estimez-vous cette probabilité ?
Franchement je dirais pour moi facile 90%, et la chose pour moi la plus frappante est ceci :
Les neurones sont bien positionné , et malgré la différence des individus et la variation des connexions des neurones, celà créer toujours une sacré cohérence avec leur environnement.
Il y'a un autre systeme dans la nature qui a ce même mécanisme : la génétique

Et je pense que les deux sont les mêmes mécanismes.

Et le vivant à les mêmes problématique que la conscience, malgré qu'on connaît tout de leur processus physique , cela ne nous apprend rien sur "comment ça marche".

Et le dernier point souvent oublié , un neurone est une cellule avant tout (il a un code ADN, tout comme toute les cellules de notre corps).
1  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 09/06/2024 à 17:15
Je ne savais pas le 6 juin lorsque j'ai posté ceci :Mon avis sur le remplacement des emplois par l'IA que les entreprises technologiques de la Silicon Valley allaient faire du lobbying au près des sénateurs californiens pour empêcher le kill switch lors de certains résultats de l'IA. Oui l'IA américaine va devenir dangereuse à cause de ses hallucinations que nous ne pourrons détecter puisque inaccessibles à la compréhension humaine à la différence de certaines IA européennes qui resteront explicables et plus intelligentes que les IA américaines et chinoises.
1  0 
Avatar de Jules34
Membre chevronné https://www.developpez.com
Le 24/05/2024 à 11:45
Ce qui m'énerve autant que ça me fait rire c'est de voir à quel point cette caste de la sillicon valley est déconnectée de la réalité et des gens qui les entourent :

dépasseront ce que nous voulons, en tant que nation, donner sans permission à nos propres citoyens ainsi qu'à nos concurrents.
Depuis quand vous décidez ce que vous voulez "en tant que nation" donner aux citoyens (la nation) ?????

Les masques tombent d'eux même c'est pas croyable
0  0 
Avatar de SamuelLamour
Nouveau Candidat au Club https://www.developpez.com
Le 24/05/2024 à 15:39
Je trouve ce débat sur l’IA vraiment fascinant et important. Elon Musk et Bill Gates ont tous deux des points de vue très intéressants.

Personnellement, je comprends pourquoi Elon Musk compare l’IA à une menace nucléaire. C’est une façon très percutante de souligner à quel point les conséquences d’une IA incontrôlée pourraient être graves. Les armes nucléaires sont strictement régulées en raison de leur potentiel destructeur immédiat et massif. De la même manière, une super-intelligence numérique pourrait, en théorie, évoluer bien au-delà de notre contrôle et poser des risques existentielles. Cette comparaison, bien qu’alarmante, vise à nous faire prendre conscience de l’importance d’une régulation stricte dès maintenant, avant qu’il ne soit trop tard.

Cependant, je trouve aussi le point de vue de Bill Gates très pertinent. Il voit l’IA comme une technologie qui, tout comme l’énergie nucléaire, possède à la fois un potentiel immense pour le bien et des risques significatifs. Cette approche plus équilibrée me parle beaucoup, car elle reconnaît les opportunités tout en restant conscient des dangers. En effet, l’IA pourrait transformer positivement notre société à bien des égards, mais elle pourrait aussi être utilisée à des fins destructrices, notamment dans le domaine militaire.

Je pense que nous devons prendre au sérieux les mises en garde d’Elon Musk, même si elles peuvent sembler alarmistes. Son insistance sur la création d’un organisme de réglementation pour superviser le développement de l’IA me paraît être une mesure de précaution nécessaire. En même temps, adopter une perspective équilibrée comme celle de Bill Gates nous permet de ne pas sombrer dans une vision trop pessimiste et de reconnaître les nombreux avantages que l’IA peut offrir.

En fin de compte, je crois que le débat sur l’IA ne doit pas se limiter à une opposition entre optimisme et pessimisme. Il s’agit de trouver un juste milieu, où nous pouvons encourager les innovations tout en mettant en place des gardes-fous appropriés pour prévenir les abus et les dangers potentiels.

Qu’en pensez-vous ? Est-ce que la comparaison de l’IA avec l’arme nucléaire vous semble justifiée ? Pensez-vous qu’on devrait privilégier une approche plus prudente ou plus optimiste dans le développement de l’IA ?
0  0 
Avatar de Fluxgraveon
Nouveau membre du Club https://www.developpez.com
Le 27/05/2024 à 14:11
Et troisième point qu'on oublie souvent , la conscient fait probablement partie du vivant
Mmm, juste une question : à combien estimez-vous cette probabilité ?

Peut-être sommes-nous comme dans une expérience de Miller-Urey pour comprendre la nature de l'intellection en tentant de faire émerger de la "conscience" à partir d'une "soupe algorithmique" ? N'est-ce pas trop hérétique cela dit ?
0  0 
Avatar de Fluxgraveon
Nouveau membre du Club https://www.developpez.com
Le 28/05/2024 à 11:09
Et le vivant à les mêmes problématique que la conscience, malgré qu'on connaît tout de leur processus physique , cela ne nous apprend rien sur "comment ça marche".
Peut-être que le vivant n'est pas qu'un "mécanisme" (cela a quelque chose à voir avec le courant positiviste et le fait que la biologie a emprunté le même chemin que la physique). Aussi vous évoquez la génétique et quid de l'épigénétique (de ces comportements qui activent ou inhibent l'expression des gènes) ?
De quels neurones parlez-vous (cérébraux uniquement ?) ? les neurones entériques produisent la grande majorité des neuromédiateurs (95 % de la sérotonine), le cœur dispose de son propre réseau de neurones qualifiés de "semi-autonomes" et de mon point de vue le microbiote constitue un cerveau supplémentaire à part entière nous interfaçant avec l'environnement.
Quant au fameux code ADN, je le vois comme une base mnémotechnique pour le "Vivant" évoqué.

Et aussi :
Conclusion
L’IA offre d’immenses opportunités pour transformer notre économie et résoudre nos plus grands défis, mais nous devons également gérer les risques posés par cette technologie complexe. L’accord sur l’interrupteur d’arrêt est un pas dans la bonne direction, mais il reste encore beaucoup à faire pour garantir que l’IA reste bénéfique pour l’humanité. Comme l’a déclaré Michelle Donelan, secrétaire à la technologie du Royaume-Uni : « Ce potentiel complet ne peut être débloqué que si nous sommes capables de maîtriser les risques posés par cette technologie en constante évolution ».
Pour faire bref, le fait que l'inscription " Γνῶθι σεαυτόν" ("connais-toi toi même") soit gravée à l'entrée du temple de Delphes (c'est la plus ancienne) indique une condition initiale pour être en capacité de recevoir l'oracle proféré par la Πυθία (Pythie) et s'affranchir de l'interprétation des prêtres (voilà que je deviens hérétique, tiens).
L'IA (peu importe ici ce dont il s'agit) est une création humaine (comme le syndrome terminator), peut-être l'externalisation d'une fonctionnalité nécessaire à ce moment technologique, qui du fait même de la technologie (agressive pour le moins) risque de nous emporter tous (voire même par inadvertance) : sommes-nous capables de nous connaître nous-mêmes ?
0  0 
Avatar de Kannagi
Expert éminent sénior https://www.developpez.com
Le 28/05/2024 à 16:31
Citation Envoyé par Fluxgraveon Voir le message
Peut-être que le vivant n'est pas qu'un "mécanisme" (cela a quelque chose à voir avec le courant positiviste et le fait que la biologie a emprunté le même chemin que la physique). Aussi vous évoquez la génétique et quid de l'épigénétique (de ces comportements qui activent ou inhibent l'expression des gènes) ?
André Pichot ( biologiste et épistémologiste ) supposé lui aussi que la vision purement "mécanisme" était une impasse :

Selon lui la biologie moderne est dans une impasse théorique qu'elle masque à l'aide d'opérations médiatiques et de débauche technologique (Téléthon, annonces fracassantes de thérapies miracles, séquençage du génome humain, etc).

La domination du néo-darwinisme de la génétique et de la biologie moléculaire (constituée de « dogmes » selon certains biologistes, et notamment Francis Crick) aurait, selon Pichot, stérilisé presque toute tentative de penser le vivant autrement que comme une machine.
L'analogie mécaniste remonte au XVIIe siècle et n'était alors qu'une métaphore commode, faite faute de mieux ; aujourd'hui selon lui la machine serait devenue le modèle exclusif par lequel les scientifiques tentent d'appréhender le vivant.

Or une telle conception du vivant est très critiquable. Selon Pichot, tant que cette conception du vivant comme machine ne sera pas critiquée et tant qu'il n'y aura pas de théorie sur la nature des êtres vivants qui reconnaisse leur spécificité par rapport aux objets inanimés et aux machines, il ne sortira rien de la biologie moderne
Citation Envoyé par Fluxgraveon Voir le message
De quels neurones parlez-vous (cérébraux uniquement ?) ? les neurones entériques produisent la grande majorité des neuromédiateurs (95 % de la sérotonine), le cœur dispose de son propre réseau de neurones qualifiés de "semi-autonomes" et de mon point de vue le microbiote constitue un cerveau supplémentaire à part entière nous interfaçant avec l'environnement.
Quant au fameux code ADN, je le vois comme une base mnémotechnique pour le "Vivant" évoqué.
Je ne suis pas biologiste , je parlais des neurones du cerveau , mais j'ai presque envie de dire "peu imposte" , ce que je voulais relevé était qu'un neurone est un peu plus complexe que la vision actuel qu'on en fait qui est une sorte de multriplication de matrice (IA) , avec de simple "entre sortie" multiple.

Pareil pour l'ADN qui n'est pas un "programme" (que André Pichot critiquais d'ailleurs).

Je pense que nos grandes méconnaissance du vivant sur ces nombreux point sont quelque chose de plus significatif.
Le soucis de la vision mécanisme , ce n'est pas tant pour moi que le vivant n'est pas une "machine" , mais que nous la voyant comme des rouages qui ont chaqu'un leur propre mécanisme indépendant, comme une voiture qu'on pourrait changer de pièce , et que chaque pièce étant totalement indépendant.
Ce qui conduit à la conclusion actuel que le cerveau c'est juste un "algorithme" en effaçant toute la partie vivante comme si cela n'avait aucun impact.

Alors que j'ai des forts doutes sur cette vision, au contraire, j'ai l'impression que chaque rouage du vivant partage plus ou moins les mêmes "mécanismes" mais en plus sont fortement dépendant entre elle.
Et le cerveau et la conscience en font partie intégrante de ce mécanisme entremelée.
0  0 
Avatar de Kannagi
Expert éminent sénior https://www.developpez.com
Le 30/05/2024 à 8:21
Citation Envoyé par Fluxgraveon Voir le message
Comme une interdépendance des phénomènes ? Ce qui pourrait constituer un pas vers l'intégration de l'agentivité en question et court-circuiter la réification technologique (nécessaire à une configuration de type IoT cela dit) : il manque encore quelque chose disons "de plus rentable que la rentabilité elle-même", peut-être quelque chose de ... vital ?
Ce n'est pas trop compris , et qu’appeler vous "quelque chose de vital ? quel en serait sa forme ?
0  0