Samuel Harris Altman est un entrepreneur et investisseur américain surtout connu pour être le PDG d'OpenAI depuis 2019 (il a été brièvement licencié et réintégré en novembre 2023). Il est également directeur général d'AltC Acquisition Corp depuis 2021. Altman est considéré comme l'une des figures de proue du boom de l'IA. Il a abandonné l'université de Stanford au bout de deux ans et a fondé Loopt, un service de réseau social mobile, levant plus de 30 millions de dollars en capital-risque. En 2011, Altman a rejoint Y Combinator, un accélérateur de startups, dont il a été le président de 2014 à 2019.
Dans une récente interview podcast, M. Altman a plaidé en faveur de la création d'une agence internationale chargée de contrôler et de garantir la « sécurité raisonnable » des puissants systèmes d'IA.
Pourquoi une agence internationale ?
La proposition d'Altman de créer une agence internationale découle de sa conviction que les systèmes d'IA les plus puissants auront le potentiel de causer des dommages importants à l'échelle mondiale. Il estime que les effets négatifs d'une IA aussi avancée pourraient dépasser les frontières nationales et qu'il serait donc difficile pour les pays de les réglementer efficacement par eux-mêmes.
Dans le cadre du podcast All-In, M. Altman s'est dit préoccupé par l'avenir proche, déclarant qu'« il arrivera un moment [...] où les systèmes d'IA d'avant-garde seront capables de causer des dommages importants à l'échelle mondiale ».
Il envisage la création d'une agence internationale chargée d'examiner les systèmes les plus puissants et de garantir des tests de sécurité raisonnables.
M. Altman reconnaît toutefois la nécessité d'une approche équilibrée. Il souligne les dangers d'une « réglementation excessive » et cherche un cadre qui permette d'éviter les restrictions excessives tout en atténuant les risques. Il souligne les pièges potentiels de la sous-réglementation et de la sur-réglementation.
Les lois ne peuvent pas rattraper les progrès de l'IA
Ce débat sur la réglementation de l'IA coïncide avec les efforts législatifs en cours dans le monde entier. L'Union européenne a récemment adopté la loi sur l'intelligence artificielle, qui vise à catégoriser les risques liés à l'IA et à interdire les applications inacceptables. De même, aux États-Unis, le président Biden a signé un décret visant à promouvoir la transparence des modèles d'IA puissants. La Californie s'est également imposée comme chef de file en matière de réglementation de l'IA, les législateurs examinant une multitude de projets de loi pertinents.
M. Altman estime qu'une agence internationale offre une plus grande adaptabilité qu'une législation nationale. Il souligne le rythme rapide du développement de l'IA, suggérant que des lois rigides deviendraient rapidement obsolètes. Il exprime son scepticisme quant à la capacité des législateurs à élaborer des réglementations à l'épreuve du temps, déclarant : « Ce qui est écrit dans la loi, c'est que dans 12 mois, tout sera écrit de travers. »
En termes plus simples, M. Altman compare la surveillance de l'IA à la réglementation en matière de sécurité aérienne. Il explique : « Lorsque des pertes importantes de vies humaines sont une possibilité sérieuse [...] comme dans les avions [...], je pense que nous sommes heureux de disposer d'une sorte de cadre de tests. » Son scénario idéal implique un système dans lequel les utilisateurs, comme les passagers d'un avion, peuvent faire confiance à la sécurité de l'IA sans avoir besoin d'en comprendre les moindres détails.
Pourquoi n'y a-t-il pas encore de véritable réglementation de l'IA ?
Malgré ces efforts continus, l'élaboration d'un cadre réglementaire réellement efficace pour l'IA présente plusieurs défis.
L'un des principaux obstacles est le rythme rapide du développement de l'IA. Le domaine est en constante évolution et il est donc difficile pour les réglementations de suivre le rythme des avancées technologiques. Les lois rédigées aujourd'hui peuvent être insuffisantes pour faire face aux risques posés par les systèmes d'IA développés demain.
Un autre défi réside dans la complexité des systèmes d'IA. Ces systèmes peuvent être incroyablement complexes et difficiles à comprendre, même pour les experts. Cette complexité fait qu'il est difficile pour les régulateurs d'identifier et d'atténuer les risques potentiels.
En outre, il n'existe pas de consensus mondial sur la manière de réglementer l'IA. Les priorités et la tolérance au risque varient d'un pays à l'autre en ce qui concerne le développement de l'IA. Il est donc difficile d'établir un cadre international unifié.
Enfin, il existe une inquiétude quant à la possibilité d'étouffer l'innovation. Des réglementations trop restrictives pourraient entraver le développement d'applications bénéfiques de l'IA.
Il est essentiel de trouver un juste équilibre entre la sécurité, l'innovation et la coopération internationale pour élaborer des réglementations efficaces en matière d'IA.
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous le point de vue de M. Altman crédible ou pertinent ?
Voir aussi :
Le PDG d'OpenAI, Sam Altman, déclare au Congrès américain qu'il craint que l'IA ne soit "nuisible" au monde, il ajoute qu'une réglementation de l'IA est urgente afin d'éviter une catastrophe
OpenAI publie ses intentions dans le domaine de la sécurité en Intelligence artificielle, cela sera-t'il suffisant ?