
Dario Amodei, PDG d'Anthropic affirme que d'ici l'année prochaine, les modèles d'intelligence artificielle pourraient être capable de "se répliquer et de survivre dans la nature". Il ajoute, "je peux me tromper, mais je pense que cela pourrait se faire à court terme.
Dario Amodei est un chercheur et entrepreneur italo-américain spécialisé dans l'intelligence artificielle. Il est le cofondateur et PDG d'Anthropic, la société à l'origine de la grande série de modèles de langage Claude AI. Il a été vice-président de la recherche chez OpenAI.
Alors que l'IA semble devenir chaque jour plus puissante, l'une des principales personnes investies pour la rendre plus intelligente affirme que bientôt, elle pourrait même devenir autonome et se répliquer elle-même. Lors d'un entretien avec Ezra Klein du New York Times, le PDG d'Anthropic, Dario Amodei, a évoqué la "mise à l'échelle responsable" de la technologie et expliqué qu'en l'absence de gouvernance, elle pourrait commencer à se reproduire.
Comme M. Amodei l'a expliqué à M. Klein, Anthropic utilise les niveaux de biosécurité des laboratoires de virologie comme analogie pour l'IA. Selon lui, le monde en est actuellement à l'ASL 2, et l'ASL 4, qui inclurait l'"autonomie" et la "persuasion", est peut-être à nos portes.
"L'ASL 4 concernera davantage, du point de vue de l'utilisation abusive, le fait de permettre à des acteurs étatiques d'accroître considérablement leurs capacités, ce qui est beaucoup plus difficile que de permettre à des personnes au hasard", a déclaré M. Amodei. "Nous craignons donc que la Corée du Nord, la Chine ou la Russie puissent renforcer considérablement leurs capacités offensives dans divers domaines militaires grâce à l'IA, ce qui leur donnerait un avantage substantiel sur le plan géopolitique."
En ce qui concerne l'autonomie, ses prédictions sont encore plus audacieuses. "Diverses mesures de ces modèles, poursuit-il, sont assez proches d'être capables de se reproduire et de survivre dans la nature.
Lorsque Klein lui a demandé combien de temps il faudrait pour atteindre ces différents niveaux de menace, Amodei, qui a déclaré avoir l'habitude de penser "en exponentielles", a déclaré qu'il pensait que le niveau "répliquer et survivre dans la nature" pourrait être atteint "n'importe où entre 2025 et 2028". "Je parle vraiment d'un avenir proche. Je ne parle pas de 50 ans", a déclaré le PDG d'Anthropic. "Dieu m'accorde la chasteté, mais pas maintenant. Mais 'pas maintenant' ne veut pas dire quand je serai vieux et grisonnant. Je pense que cela pourrait être à court terme".
M. Amodei est une personnalité sérieuse dans ce domaine. En 2021, lui et sa sœur Daniela ont quitté OpenAI en raison de divergences d'orientation suite à la création de GPT-3, que le PDG et cofondateur a aidé à construire, et au partenariat de l'entreprise avec Microsoft. Peu après, la fratrie a fondé Anthropic avec d'autres expatriés d'OpenAI pour poursuivre leurs efforts de mise à l'échelle responsable.
"Je ne sais pas", a-t-il poursuivi lors de l'interview de Klein. "Je peux me tromper. Mais je pense qu'il pourrait s'agir d'un projet à court terme".
Alors que les discours alarmistes sur l'IA sont monnaie courante de nos jours, le point de vue d'Amodei ajoute beaucoup de poids à son argumentation et rend la mission d'Anthropic "d'assurer que l'IA transformatrice aide les gens et la société à s'épanouir" d'autant plus digne d'intérêt.
Source : Entretien avec Ezra Klein du New York Times dans un podcast
Et vous ?


Voir aussi :



Vous avez lu gratuitement 8 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.