IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Elon Musk déclare que le sommet sur la sécurité de l'IA vise à établir un "arbitre tiers"
Pour superviser les entreprises développant l'IA et tirer la sonnette d'alarme en cas d'inquiétude

Le , par Anthony

0PARTAGES

3  0 
Elon Musk a déclaré le mercredi 1 novembre que le sommet inaugural sur la sécurité de l'IA en Grande-Bretagne souhaitait établir un "arbitre tiers" qui pourrait superviser les entreprises développant l'intelligence artificielle et tirer la sonnette d'alarme en cas d'inquiétude.

"Ce que nous visons vraiment ici, c'est d'établir un cadre de réflexion pour qu'il y ait au moins un arbitre tiers, un arbitre indépendant, qui puisse observer ce que font les principales entreprises d'IA et au moins tirer la sonnette d'alarme s'il y a des inquiétudes", a déclaré l'entrepreneur milliardaire aux journalistes à Bletchley Park, dans le centre de l'Angleterre.

"Je ne sais pas quelles sont les règles les plus justes, mais il faut commencer par comprendre avant de surveiller", a déclaré M. Musk.

Les commentaires de M. Musk sont intervenus après la publication par la Grande-Bretagne d'une déclaration signée par 28 pays et l'Union européenne, qui définit un programme à deux volets axé sur l'identification des risques liés à l'IA qui suscitent des préoccupations communes, sur l'amélioration de la compréhension scientifique de ces risques et sur l'élaboration de politiques transnationales visant à les atténuer.

"Je pense que les personnes travaillant dans le domaine de l'IA s'inquiètent beaucoup du fait que le gouvernement va en quelque sorte se précipiter sur les règles avant de savoir quoi faire", a déclaré M. Musk.

"Je pense qu'il est peu probable que cela se produise."


Source : Déclaration d'Elon Musk lors du sommet sur la sécurité de l'IA en Grande-Bretagne

Et vous ?

Quel est votre avis sur le sujet ?

Pensez-vous que le point de vue de M. Musk est crédible ou pertinent ?

Voir aussi

Le G7 s'apprête à adopter un code de conduite pour les entreprises en matière d'IA, le code vise "à aider à saisir les avantages et à faire face aux risques et aux défis posés par ces technologies"

Le risque lié à l'IA est similaire à la crise climatique, le monde ne peut pas se permettre de retarder la réponse, selon Demis Hassabis, il prévoit la création d'un organisme international de l'IA

Les législateurs de l'UE progressent dans leurs négociations cruciales sur les nouvelles règles en matière d'IA

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 15/11/2023 à 15:30
Mon avis est double. D'un coté, je pense qu'il est important et urgent de légiférer, d'un autre, qu'il est nécessaire de préserver les acteurs moindres dans leurs recherches au niveau de l'IA.
Je pense que la législation devrait mettre des barrières aux grandes entreprises afin de ne pas leur laisser le champ libre et de tuer dans l'œuf toute concurrence, comme ils savent si bien le faire.

Mais gageons que le poids des billets de ces cadors, soit plus audible que toutes les objections raisonnables émises par un groupe moins... pourvus de liasses.
1  0 
Avatar de TJ1985
Membre chevronné https://www.developpez.com
Le 17/11/2023 à 8:58
J'imagine les débats le jour où l'Homme à domestiqué le Feu...

Réguler l'IA comme l'entendent les politicards et les bien-pensants revient à pratiquer une stérilisation intellectuelle. Ce n'est pas parce que de plus en plus d'utilisateurs de l'informatique ne sont pas capables d'additionner 1 et 1 qu'il faut priver ceux qui savent que ça fait 10 de poursuivre les développements les plus prometteurs de ces derniers temps.

Les catastrophistes qui prédisent que mon Raspberry Pi tournant Llama va déclencher la fin du monde sont pathétiques, et dangereux, car ils offrent une occasion aux sempiternels protecteurs des populations une magnifique occasion de tenter encore une fois de prouver leur utilité.

Les travaux de Yann LeCun visant à contextualiser les données des LLMs sont prometteurs et pourraient aboutir à instiller un brin d'intelligence dans ces systèmes, qui sont pour le moment d'une totale indigence dès lors qu'on tente de les extraire de le leur cadre d'entraînement. Mais sur le fond, observez vous, voyez comment le vivant est fabriqué, évaluez les flux d'informations reçu en permanence par notre système nerveux central et comparez ces volumes à ceux que reçoit une système d'IA dans son boîtier...

Si nous ne voulons pas souffrir de l'émergence de l'IA au sens général, il faut que nous nous formions à son usage, que nous en comprenions les bases de fonctionnement et puissions en tirer parti. Nous devons aussi en mesurer les limites, savoir d'où ça vient. Nous devons en quelque sorte (re)devenir intelligents et cesser de sauter sur chaque superstition qui passe par là.
En bref, nous devons prouver que nous restons plus aptes que n'importe laquelle de nos créa-tion-tures (voilà t'y pas que je m'y mets aussi !). Nous priver d'un bulldozer nous empêchera de construire les routes dont nous aurons besoin dans le futur.
1  0 
Avatar de fodger
Membre confirmé https://www.developpez.com
Le 15/11/2023 à 15:18
C'est d'une telle évidence ...
0  0