IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

87 % des personnes interrogées pensent qu'il faut prouver la sûreté des modèles d'IA avant leur diffusion et 60 % estiment que les modèles d'IA plus intelligents que les humains ne devraient pas être développés

Le , par Jade Emy

6PARTAGES

5  0 
La majorité des Britanniques craignent pour la sécurité de l'IA alors que les dirigeants se réunissent pour un sommet mondial. Une enquête a révélé que 87 % des personnes interrogées pensent que les entreprises spécialisées dans l'IA devraient prouver que leurs systèmes sont sûrs avant d'être autorisés à les diffuser, et 60 % estiment que les modèles d'IA plus intelligents que les humains ne devraient pas être développés du tout.

L'intelligence artificielle (IA) est un domaine de recherche en informatique qui développe et étudie des méthodes et des logiciels permettant aux machines de percevoir leur environnement et d'utiliser l'apprentissage et l'intelligence pour prendre des mesures qui maximisent leurs chances d'atteindre des objectifs définis. Les objectifs de la recherche en IA comprennent le raisonnement, la représentation des connaissances, la planification, l'apprentissage, le traitement du langage naturel, la perception et le soutien à la robotique. L'intelligence générale, c'est-à-dire la capacité d'accomplir n'importe quelle tâche exécutée par un humain à un niveau au moins égal, fait partie des objectifs à long terme du domaine.

Selon un récent sondage, la plupart des Britanniques s'inquiètent de la sécurité des nouveaux systèmes d'IA. Ce sondage intervient au moment où les dirigeants de 80 pays, ainsi que des cadres du secteur technologique, des universitaires et d'autres experts, s'apprêtent à se réunir pour un sommet mondial de deux jours à Paris afin de discuter de la direction que prend l'IA et des mesures à prendre face à sa croissance rapide et parfois perturbatrice.

L'enquête, partagé par le magazine Time, révèle que 87 % des Britanniques pensent que les entreprises spécialisées dans l'IA devraient être tenues de prouver que leurs systèmes sont sûrs avant d'être autorisés à les diffuser. En outre, 60 % d'entre eux estiment que les modèles d'IA plus intelligents que les humains ne devraient pas être développés du tout.

Pour ce qui est de faire confiance aux PDG des entreprises technologiques pour qu'ils prennent les bonnes décisions en matière de réglementation de l'IA, seuls 9 % des personnes interrogées ont répondu par l'affirmative. Le sondage a été réalisé par YouGov pour Control AI, une organisation à but non lucratif qui se concentre sur les risques liés à l'IA.


En janvier 2025, le Premier ministre britannique Keir Starmer a annoncé que l'IA serait "libérée dans tout le Royaume-Uni pour offrir une décennie de renouveau national", malgré les inquiétudes du grand public. Dans ce contexte, 75 % des Britanniques interrogés ont déclaré qu'il devrait y avoir des lois interdisant le développement de systèmes d'IA susceptibles de s'échapper de leur environnement. Par ailleurs, 63 % d'entre eux soutiennent l'idée d'interdire l'IA qui peut se rendre plus intelligente ou plus puissante.

Au Royaume-Uni, où YouGov a interrogé 2 344 adultes les 16 et 17 janvier, il n'existe toujours pas de règles claires en matière d'IA. Avant les dernières élections générales de 2024, le parti travailliste au pouvoir avait promis d'introduire de nouvelles réglementations en matière d'IA, mais depuis son arrivée au pouvoir, il n'a cessé de repousser l'idée. Au lieu de cela, le gouvernement s'est attaché à essayer de relancer l'économie en difficulté du pays en créant davantage d'opportunités grâce à l'expansion de l'IA.

Les politiciens et les organisations britanniques mettent en garde contre les risques liés à la sécurité de l'IA. Dans une déclaration publiée sur X, Control AI a révélé qu'un certain nombre d'hommes politiques avaient soutenu sa campagne visant à réglementer l'IA "superintelligente" en Grande-Bretagne.

Ils ont écrit : "La constitution de cette coalition est une étape importante sur la voie de la maîtrise du développement de l'IA dangereuse. Le gouvernement travailliste a clairement promis dans son manifeste qu'il introduirait "une réglementation contraignante pour la poignée d'entreprises qui développent les modèles d'IA les plus puissants". Le public le veut, les parlementaires le réclament, l'humanité en a besoin. Il est temps d'agir ."

Dans un communiqué séparé, 16 législateurs britanniques des deux principaux partis politiques ont déclaré : "Les systèmes d'IA superintelligents compromettraient la sécurité nationale et mondiale." Andrea Miotti, directeur général de l'organisation, a ajouté : "Alors que les entreprises d'IA visent la superintelligence, la plupart des hommes politiques dorment au volant. Notre campagne rassemble les législateurs britanniques pour qu'ils s'attaquent à cette menace."

Demis Hassabis, cofondateur de Google DeepMind et conseiller du gouvernement britannique en matière d'IA, avait déjà alerté sur le sujet en octobre 2023. Le chercheur britannique en IA a mis l'accent sur la nécessité de réglementer davantage l'IA afin de lutter contre les crises existentielles posées par une technologie qui possède des niveaux d'intelligence supérieurs à ceux de l'homme. Il a déclaré que le monde ne peut pas se permettre de retarder sa réponse. Le chercheur estime qu'il était impératif de s'attaquer aux dangers de l'IA, y compris ceux liés à la création d'armes biologiques.

Source : Magazine Time

Et vous ?

Pensez-vous que cette enquête est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

La Grande-Bretagne cherche à construire un rival national à OpenAI et à devenir un leader mondial de l'IA en augmentant la capacité des centres de données à travers le Royaume-Uni

Les États-Unis, le Royaume-Uni et l'Union européenne signent le premier traité juridiquement contraignant sur l'IA, visant à promouvoir le progrès tout en gérant les risques potentiels de l'IA

L'IA est trop imprévisible pour se conformer aux intentions humaines : son comportement reste un défi majeur pour l'alignement sur nos valeurs, d'après les conclusions des chercheurs

Une erreur dans cette actualité ? Signalez-nous-la !