IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Sam Altman, PDG d'OpenAI, estime qu'une agence internationale devrait surveiller les IA "les plus puissantes" pour garantir une "sécurité raisonnable"
Car ces systèmes peuvent "causer d'importants dommages"

Le , par Anthony

8PARTAGES

3  0 
Le développement rapide de l'intelligence artificielle (IA) a suscité un débat mondial sur son impact potentiel et sur la nécessité d'un développement responsable. L'un des aspects essentiels de ce débat est la réglementation de l'IA, les experts s'interrogeant sur la manière de garantir une utilisation sûre et éthique de l'IA. Sam Altman, PDG d'OpenAI, une société de recherche axée sur le développement d'une intelligence artificielle générale sûre et bénéfique, est l'un des principaux acteurs de ce débat.

Samuel Harris Altman est un entrepreneur et investisseur américain surtout connu pour être le PDG d'OpenAI depuis 2019 (il a été brièvement licencié et réintégré en novembre 2023). Il est également directeur général d'AltC Acquisition Corp depuis 2021. Altman est considéré comme l'une des figures de proue du boom de l'IA. Il a abandonné l'université de Stanford au bout de deux ans et a fondé Loopt, un service de réseau social mobile, levant plus de 30 millions de dollars en capital-risque. En 2011, Altman a rejoint Y Combinator, un accélérateur de startups, dont il a été le président de 2014 à 2019.

Dans une récente interview podcast, M. Altman a plaidé en faveur de la création d'une agence internationale chargée de contrôler et de garantir la « sécurité raisonnable » des puissants systèmes d'IA.


Pourquoi une agence internationale ?

La proposition d'Altman de créer une agence internationale découle de sa conviction que les systèmes d'IA les plus puissants auront le potentiel de causer des dommages importants à l'échelle mondiale. Il estime que les effets négatifs d'une IA aussi avancée pourraient dépasser les frontières nationales et qu'il serait donc difficile pour les pays de les réglementer efficacement par eux-mêmes.

Dans le cadre du podcast All-In, M. Altman s'est dit préoccupé par l'avenir proche, déclarant qu'« il arrivera un moment [...] où les systèmes d'IA d'avant-garde seront capables de causer des dommages importants à l'échelle mondiale ».

Il envisage la création d'une agence internationale chargée d'examiner les systèmes les plus puissants et de garantir des tests de sécurité raisonnables.

M. Altman reconnaît toutefois la nécessité d'une approche équilibrée. Il souligne les dangers d'une « réglementation excessive » et cherche un cadre qui permette d'éviter les restrictions excessives tout en atténuant les risques. Il souligne les pièges potentiels de la sous-réglementation et de la sur-réglementation.

Les lois ne peuvent pas rattraper les progrès de l'IA

Ce débat sur la réglementation de l'IA coïncide avec les efforts législatifs en cours dans le monde entier. L'Union européenne a récemment adopté la loi sur l'intelligence artificielle, qui vise à catégoriser les risques liés à l'IA et à interdire les applications inacceptables. De même, aux États-Unis, le président Biden a signé un décret visant à promouvoir la transparence des modèles d'IA puissants. La Californie s'est également imposée comme chef de file en matière de réglementation de l'IA, les législateurs examinant une multitude de projets de loi pertinents.

M. Altman estime qu'une agence internationale offre une plus grande adaptabilité qu'une législation nationale. Il souligne le rythme rapide du développement de l'IA, suggérant que des lois rigides deviendraient rapidement obsolètes. Il exprime son scepticisme quant à la capacité des législateurs à élaborer des réglementations à l'épreuve du temps, déclarant : « Ce qui est écrit dans la loi, c'est que dans 12 mois, tout sera écrit de travers. »

En termes plus simples, M. Altman compare la surveillance de l'IA à la réglementation en matière de sécurité aérienne. Il explique : « Lorsque des pertes importantes de vies humaines sont une possibilité sérieuse [...] comme dans les avions [...], je pense que nous sommes heureux de disposer d'une sorte de cadre de tests. » Son scénario idéal implique un système dans lequel les utilisateurs, comme les passagers d'un avion, peuvent faire confiance à la sécurité de l'IA sans avoir besoin d'en comprendre les moindres détails.

Pourquoi n'y a-t-il pas encore de véritable réglementation de l'IA ?

Malgré ces efforts continus, l'élaboration d'un cadre réglementaire réellement efficace pour l'IA présente plusieurs défis.

L'un des principaux obstacles est le rythme rapide du développement de l'IA. Le domaine est en constante évolution et il est donc difficile pour les réglementations de suivre le rythme des avancées technologiques. Les lois rédigées aujourd'hui peuvent être insuffisantes pour faire face aux risques posés par les systèmes d'IA développés demain.

Un autre défi réside dans la complexité des systèmes d'IA. Ces systèmes peuvent être incroyablement complexes et difficiles à comprendre, même pour les experts. Cette complexité fait qu'il est difficile pour les régulateurs d'identifier et d'atténuer les risques potentiels.

En outre, il n'existe pas de consensus mondial sur la manière de réglementer l'IA. Les priorités et la tolérance au risque varient d'un pays à l'autre en ce qui concerne le développement de l'IA. Il est donc difficile d'établir un cadre international unifié.

Enfin, il existe une inquiétude quant à la possibilité d'étouffer l'innovation. Des réglementations trop restrictives pourraient entraver le développement d'applications bénéfiques de l'IA.

Il est essentiel de trouver un juste équilibre entre la sécurité, l'innovation et la coopération internationale pour élaborer des réglementations efficaces en matière d'IA.

Et vous ?

Quel est votre avis sur le sujet ?
Trouvez-vous le point de vue de M. Altman crédible ou pertinent ?

Voir aussi :

Le PDG d'OpenAI, Sam Altman, déclare au Congrès américain qu'il craint que l'IA ne soit "nuisible" au monde, il ajoute qu'une réglementation de l'IA est urgente afin d'éviter une catastrophe

OpenAI publie ses intentions dans le domaine de la sécurité en Intelligence artificielle, cela sera-t'il suffisant ?

Une erreur dans cette actualité ? Signalez-nous-la !