![](https://www.developpez.com/images/logos/antropic.png)
Dario Amodei, cofondateur et PDG d'Anthropic, a déclaré lors d'une interview au début d'année 2025 que l'IA pourrait surpasser les capacités humaines dans presque tous les domaines dans un avenir très proche. Il a ajouté que "les progrès sont vraiment aussi rapides que les gens le pensent". Le chercheur a également déclaré que cette évolution permettrait à l'industrie de fabriquer de meilleurs robots, tout en forçant l'humanité à redéfinir la manière dont l'économie mondiale est organisée.
Récemment, il a prédit que les modèles d'IA pourraient dépasser les capacités humaines et donner naissance à un "pays de génies" d'ici deux à trois ans, après avoir critiqué le sommet sur l'IA qui s'est tenu à Paris.
Dans un billet de blog publié le 11 février, Amodei prévoit que d'ici 2026 ou 2027, les systèmes d'IA seront si avancés que l'on assistera à l'émergence d'un tout nouvel état d'êtres hautement intelligents sur la scène mondiale. Le cofondateur d'Anthropic a écrit que ce serait l'équivalent d'un "pays de génies dans un centre de données", avec les profondes implications économiques, sociétales et sécuritaires que cela impliquerait.
L'entrepreneur a toutefois qualifié le sommet de Paris d'"occasion manquée", dénonçant la lenteur des efforts déployés au niveau mondial pour réglementer l'IA. Sa mise en garde intervient à un moment charnière, où les nations démocratiques et autoritaires font la course pour dominer le développement de l'IA.
Il a souligné trois points essentiels qui doivent être abordés pour garantir l'atténuation des risques liés à l'IA. Il s'agit notamment de faire en sorte que les sociétés démocratiques prennent l'initiative dans le domaine de l'IA en régissant la chaîne d'approvisionnement de la technologie. Amodei a également souligné que les discussions internationales sur l'IA « doivent davantage prendre en compte les risques croissants de la technologie en matière de sécurité ».
Enfin, si l'IA a le potentiel d'accélérer la croissance économique à l'échelle mondiale, elle pourrait aussi être très perturbatrice. C'est pourquoi Anthropic a publié un indice économique, qui suit la répartition des activités économiques pour lesquelles les gens utilisent actuellement ses systèmes d'IA.
Le sommet a mis en évidence les divisions croissantes dans la manière dont les pays abordent la réglementation de l'IA. Le vice-président américain JD Vance s'est élevé contre les propositions européennes, les qualifiant de "massives" et de trop restrictives. De leur côté, les États-Unis et le Royaume-Uni sont restés sur leurs positions et ont refusé de signer les engagements pris lors du sommet.
Parmi les risques de l'IA, il y a le risque existentiel lié à l'arrivée de l'intelligence artificielle générale (AGI). Une étude avait notamment révélé que l’AGI représente un risque existentiel imminent pour l’humanité, qui pourrait survenir avant les effets du réchauffement climatique. Cependant, pour un journaliste technologique, l'AGI est le plus gros mensonge de l'année et que cette technologie n'existe tout simplement pas. Il s'en est pris vertement à ce qu'il appelle le battage médiatique autour de l'intelligence artificielle générale (AGI).
Anthropic a été créée en 2021 par Amodei et sa sœur, Daniela Amodei, ainsi que par cinq autres anciens employés d'OpenAI. L'entreprise est ensuite devenue un concurrent sérieux d'OpenAI, s'affrontant avec des modèles tels que GPT-4 et ChatGPT. Dernièrement, son modèle Claude 3.5 Sonnet a reçu beaucoup d'éloges de la part des utilisateurs d'IA et continue de se classer parmi les meilleurs dans les benchmarks de l'industrie.
Voici la déclaration de Dario Amodei sur le sommet de Paris sur l'action en faveur de l'IA
Nous avons eu le plaisir de participer au Sommet d'action sur l'IA à Paris, et nous apprécions les efforts du gouvernement français pour réunir des entreprises, des chercheurs et des décideurs politiques du monde entier dans le domaine de l'IA. Nous partageons l'objectif de faire progresser l'IA de manière responsable pour le bien de l'humanité. Toutefois, compte tenu du rythme auquel la technologie progresse, il est nécessaire de se concentrer davantage sur plusieurs sujets et de faire preuve d'une plus grande urgence. La nécessité pour les démocraties de garder l'initiative, les risques de l'IA et les transitions économiques qui approchent à grands pas devraient être au cœur du prochain sommet.
Le temps presse et nous devons accélérer nos actions pour suivre l'accélération des progrès de l'IA. Peut-être d'ici 2026 ou 2027 (et presque certainement pas plus tard que 2030), les capacités des systèmes d'IA seront comparables à l'apparition sur la scène mondiale d'un tout nouvel État peuplé de personnes très intelligentes - un « pays de génies dans un centre de données » - avec les profondes implications économiques, sociétales et sécuritaires qui en découleraient. Les opportunités économiques, scientifiques et humanitaires sont potentiellement plus importantes que pour toute technologie antérieure dans l'histoire de l'humanité, mais il y a aussi de sérieux risques à gérer.
Tout d'abord, nous devons veiller à ce que les sociétés démocratiques soient à la pointe de l'IA et à ce que les pays autoritaires ne l'utilisent pas pour établir une domination militaire mondiale. L'encadrement de la chaîne d'approvisionnement de l'IA (y compris les puces, les équipements de fabrication de semi-conducteurs et la cybersécurité) est une question qui mérite beaucoup plus d'attention, tout comme l'utilisation judicieuse de la technologie de l'IA pour défendre les sociétés libres.
Deuxièmement, les conversations internationales sur l'IA doivent davantage prendre en compte les risques croissants de la technologie en matière de sécurité. L'IA avancée présente d'importants dangers pour la sécurité mondiale, allant de l'utilisation abusive des systèmes d'IA par des acteurs non étatiques (par exemple pour les armes chimiques, biologiques, radiologiques ou nucléaires, ou CBRN) aux risques d'autonomie des systèmes d'IA puissants. Avant le sommet, près de 100 experts mondiaux de premier plan ont publié un rapport scientifique soulignant le potentiel de l'IA polyvalente à contribuer de manière significative aux risques d'utilisation abusive catastrophique ou aux scénarios de « perte de contrôle ». Les recherches d'Anthropic ont également montré que, s'ils ne sont pas formés avec soin, les modèles d'IA peuvent tromper leurs utilisateurs et poursuivre des objectifs involontaires, même lorsqu'ils sont formés de manière apparemment inoffensive.
Nous sommes heureux de voir que plus de 16 entreprises d'IA pionnières se sont engagées à suivre des plans de sûreté et de sécurité (la version d'Anthropic, notre Politique de mise à l'échelle responsable, a été publiée pour la première fois en septembre 2023 et a été la première politique de ce type) avant le Sommet. Mais nous pensons également que les gouvernements doivent veiller à la transparence de ces plans et faciliter la mesure des cyberattaques, des risques CBRN, de l'autonomie et d'autres risques de sécurité globale, y compris par des évaluateurs tiers, pour les développeurs qui construisent dans leur pays.
Troisièmement, si l'IA a le potentiel d'accélérer considérablement la croissance économique dans le monde entier, elle a aussi le potentiel d'être très perturbatrice. Un « pays de génies dans un centre de données » pourrait représenter le changement le plus important de l'histoire de l'humanité sur le marché mondial du travail. La première étape consiste à surveiller et à observer les impacts économiques des systèmes d'IA actuels. C'est pourquoi nous avons publié cette semaine l'indice économique Anthropic, qui suit la répartition des activités économiques pour lesquelles les gens utilisent actuellement nos systèmes d'IA, en précisant s'ils augmentent ou automatisent les tâches humaines actuelles. Il est nécessaire que les gouvernements utilisent leurs ressources beaucoup plus importantes pour effectuer des mesures et un suivi similaires, et finalement pour mettre en place une politique visant à garantir que tout le monde partage les avantages économiques d'une IA très puissante.
Lors du prochain sommet international, nous ne devrions pas répéter cette occasion manquée. Ces trois questions devraient figurer en tête de l'ordre du jour. Les progrès de l'IA posent de nouveaux défis mondiaux majeurs. Nous devons agir plus rapidement et avec plus de clarté pour y faire face.
Le temps presse et nous devons accélérer nos actions pour suivre l'accélération des progrès de l'IA. Peut-être d'ici 2026 ou 2027 (et presque certainement pas plus tard que 2030), les capacités des systèmes d'IA seront comparables à l'apparition sur la scène mondiale d'un tout nouvel État peuplé de personnes très intelligentes - un « pays de génies dans un centre de données » - avec les profondes implications économiques, sociétales et sécuritaires qui en découleraient. Les opportunités économiques, scientifiques et humanitaires sont potentiellement plus importantes que pour toute technologie antérieure dans l'histoire de l'humanité, mais il y a aussi de sérieux risques à gérer.
Tout d'abord, nous devons veiller à ce que les sociétés démocratiques soient à la pointe de l'IA et à ce que les pays autoritaires ne l'utilisent pas pour établir une domination militaire mondiale. L'encadrement de la chaîne d'approvisionnement de l'IA (y compris les puces, les équipements de fabrication de semi-conducteurs et la cybersécurité) est une question qui mérite beaucoup plus d'attention, tout comme l'utilisation judicieuse de la technologie de l'IA pour défendre les sociétés libres.
Deuxièmement, les conversations internationales sur l'IA doivent davantage prendre en compte les risques croissants de la technologie en matière de sécurité. L'IA avancée présente d'importants dangers pour la sécurité mondiale, allant de l'utilisation abusive des systèmes d'IA par des acteurs non étatiques (par exemple pour les armes chimiques, biologiques, radiologiques ou nucléaires, ou CBRN) aux risques d'autonomie des systèmes d'IA puissants. Avant le sommet, près de 100 experts mondiaux de premier plan ont publié un rapport scientifique soulignant le potentiel de l'IA polyvalente à contribuer de manière significative aux risques d'utilisation abusive catastrophique ou aux scénarios de « perte de contrôle ». Les recherches d'Anthropic ont également montré que, s'ils ne sont pas formés avec soin, les modèles d'IA peuvent tromper leurs utilisateurs et poursuivre des objectifs involontaires, même lorsqu'ils sont formés de manière apparemment inoffensive.
Nous sommes heureux de voir que plus de 16 entreprises d'IA pionnières se sont engagées à suivre des plans de sûreté et de sécurité (la version d'Anthropic, notre Politique de mise à l'échelle responsable, a été publiée pour la première fois en septembre 2023 et a été la première politique de ce type) avant le Sommet. Mais nous pensons également que les gouvernements doivent veiller à la transparence de ces plans et faciliter la mesure des cyberattaques, des risques CBRN, de l'autonomie et d'autres risques de sécurité globale, y compris par des évaluateurs tiers, pour les développeurs qui construisent dans leur pays.
Troisièmement, si l'IA a le potentiel d'accélérer considérablement la croissance économique dans le monde entier, elle a aussi le potentiel d'être très perturbatrice. Un « pays de génies dans un centre de données » pourrait représenter le changement le plus important de l'histoire de l'humanité sur le marché mondial du travail. La première étape consiste à surveiller et à observer les impacts économiques des systèmes d'IA actuels. C'est pourquoi nous avons publié cette semaine l'indice économique Anthropic, qui suit la répartition des activités économiques pour lesquelles les gens utilisent actuellement nos systèmes d'IA, en précisant s'ils augmentent ou automatisent les tâches humaines actuelles. Il est nécessaire que les gouvernements utilisent leurs ressources beaucoup plus importantes pour effectuer des mesures et un suivi similaires, et finalement pour mettre en place une politique visant à garantir que tout le monde partage les avantages économiques d'une IA très puissante.
Lors du prochain sommet international, nous ne devrions pas répéter cette occasion manquée. Ces trois questions devraient figurer en tête de l'ordre du jour. Les progrès de l'IA posent de nouveaux défis mondiaux majeurs. Nous devons agir plus rapidement et avec plus de clarté pour y faire face.
Et vous ?
![:fleche:](https://www.developpez.net/forums/images/smilies/fleche.gif)
![:fleche:](https://www.developpez.net/forums/images/smilies/fleche.gif)
Voir aussi :
![:fleche:](https://www.developpez.net/forums/images/smilies/fleche.gif)
![:fleche:](https://www.developpez.net/forums/images/smilies/fleche.gif)
![:fleche:](https://www.developpez.net/forums/images/smilies/fleche.gif)