IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le PDG d'Anthropic révèle que des espions traquent des secrets d'IA valant 100 millions de dollars dans quelques lignes de code,
Il craint que ces acteurs ne volent des « secrets algorithmiques » essentiels

Le , par Bruno

7PARTAGES

4  0 
Le PDG d'Anthropic révèle que des espions traquent des secrets d'IA valant 100 millions de dollars dans quelques lignes de code,
il craint que ces acteurs ne volent des « secrets algorithmiques » essentiels

Le PDG d'Anthropic, Dario Amodei, alerte sur le fait que des espions, vraisemblablement chinois, cherchent à s’emparer de secrets d’IA estimés à 100 millions de dollars, encapsulés dans « quelques lignes de code ». Il redoute que ces acteurs ne parviennent à voler des « secrets algorithmiques » cruciaux détenus par les principales entreprises du secteur de l’intelligence artificielle.

Amodei souligne que, bien que ces secrets se résument à peu de lignes de code, leur importance est stratégique et leur vol pourrait entraîner des conséquences économiques et géopolitiques significatives. Il plaide pour un renforcement de l’intervention du gouvernement américain afin de protéger ces actifs, tout en pointant du doigt, de manière implicite, les pratiques d’espionnage industriel attribuées à la Chine.


Lors d’un événement organisé par le Council on Foreign Relations, Dario Amodei a affirmé que la Chine est reconnue pour son « espionnage industriel à grande échelle », ciblant notamment les entreprises d’intelligence artificielle comme Anthropic. « Beaucoup de ces secrets algorithmiques, d’une valeur estimée à 100 millions de dollars, se résument à quelques lignes de code », a-t-il déclaré. « Je suis convaincu que des individus tentent de les voler, et qu’ils y parviennent peut-être. »


Amodei a insisté sur l’importance d’une intervention accrue du gouvernement américain pour contrer ce risque, sans toutefois préciser la nature de l’aide requise. Anthropic exhorte de se référer aux recommandations soumises au Bureau de la politique scientifique et technologique (OSTP) de la Maison Blanche plus tôt ce mois-ci. Dans ce document, l’entreprise plaide pour une collaboration entre le gouvernement fédéral et les leaders de l’industrie de l’IA afin de renforcer la sécurité des laboratoires de pointe, notamment en partenariat avec les agences de renseignement américaines et leurs alliés.

Citation Envoyé par Anthropic
Anthropic appuie fermement les initiatives de l'OSTP visant à identifier les priorités politiques essentielles pour préserver et renforcer la position dominante et le leadership des États-Unis dans le domaine de l'intelligence artificielle. Nos propositions s'articulent autour de deux axes principaux :

  • les mesures de sécurité nationale visant à protéger les infrastructures technologiques critiques et les actifs intellectuels américains contre les menaces étrangères ;
  • les investissements que le gouvernement américain devrait réaliser pour développer un écosystème dynamique de recherche, de développement et de déploiement de l'IA, favorisant ainsi la prospérité économique et garantissant que les bénéfices de cette technologie soient équitablement répartis dans toute la société.

Une technologie d'IA avancée verra le jour au cours de cette administration. Étant donné la rapidité des progrès dans ce domaine, il est crucial que cette technologie soit considérée comme un atout national stratégique, soutenu par un plan d'action spécifique qui renforce à la fois la compétitivité économique des États-Unis et leur sécurité nationale.
Les préoccupations d’Amodei, exposées dans son essai Machines of Loving Grace, portent également sur l’utilisation de l’IA par la Chine à des fins autoritaires et militaires, reflétant ses craintes quant aux implications stratégiques et éthiques de cette technologie. Voici ce qu’il en pense :

Dario Amodei, PDG d’Anthropic, explique qu’il réfléchit et parle souvent des risques associés à une IA puissante. Son entreprise, Anthropic, consacre d’importantes ressources à la recherche sur la réduction de ces risques. Cette focalisation sur les dangers potentiels de l’IA a conduit certains à le qualifier de pessimiste ou de « doomer », croyant qu’il considère l’IA comme principalement néfaste ou dangereuse. Cependant, Amodei précise que ce n’est pas du tout son point de vue. Selon lui, se concentrer sur les risques est essentiel car ils représentent le principal obstacle à un avenir qu’il juge fondamentalement positif. Il estime que la plupart des gens sous-estiment à la fois les bénéfices radicaux que l’IA pourrait apporter et la gravité des risques potentiels.

Comment l'IA pourrait transformer le monde pour le mieux

Dans son essai, Amodei tente d’esquisser à quoi pourraient ressembler ces bénéfices – un monde où une IA puissante fonctionne de manière optimale. Il reconnaît que prédire l’avenir avec certitude est impossible, et que les effets d’une IA puissante seront probablement encore plus imprévisibles que les révolutions technologiques passées. Ainsi, son analyse repose inévitablement sur des hypothèses. Néanmoins, il s’efforce de proposer des hypothèses éclairées et utiles, capables de capturer l’essence de ce qui pourrait se produire, même si les détails s’avèrent inexacts. Il inclut de nombreux détails car, selon lui, une vision concrète fait davantage avancer le débat qu’une vision abstraite et trop prudente.

Cependant, Amodei tient à expliquer pourquoi Anthropic et lui-même n’ont pas beaucoup parlé des avantages d’une IA puissante et pourquoi ils continueront probablement à se concentrer sur les risques. Il justifie ce choix par plusieurs raisons :

Dario Amodei explique les raisons pour lesquelles Anthropic et lui-même se concentrent davantage sur les risques de l’IA que sur ses bénéfices. Il avance quatre arguments principaux :

  1. Maximiser l’impact : Selon lui, le développement de la technologie de l’IA et ses nombreux bénéfices semblent inévitables, à moins que les risques ne fassent tout dérailler. Ces avancées sont principalement motivées par des forces de marché puissantes. En revanche, les risques ne sont pas prédéterminés, et les actions des acteurs du secteur peuvent grandement influencer leur probabilité. Se concentrer sur les risques permet donc d’avoir un impact significatif en les atténuant ;
  2. Éviter la perception de propagande : Amodei souligne que les entreprises d’IA qui mettent en avant les avantages de l’IA peuvent donner l’impression de faire de la propagande ou de minimiser les inconvénients. Il estime également qu’il est malsain de passer trop de temps à « vanter son propre produit », ce qui pourrait nuire à la crédibilité et à l’objectivité des discussions sur l’IA ;
  3. Éviter la grandiloquence : Il exprime son agacement face à la manière dont certaines figures publiques parlent du monde post-AGI (intelligence artificielle générale), comme si c’était leur mission de l’amener à exister, à la manière d’un prophète guidant son peuple vers le salut. Il trouve dangereux de considérer les entreprises comme façonnant unilatéralement le monde ou de voir les objectifs technologiques en termes quasi religieux. Cette approche, selon lui, peut conduire à des attentes irréalistes et à une vision déformée des enjeux ;
  4. Éviter le bagage « science-fiction » : Bien qu’il pense que la plupart des gens sous-estiment les avantages de l’IA, Amodei critique le ton excessivement « science-fiction » utilisé par certains pour décrire les futurs radicaux de l’IA (avec des concepts comme les esprits téléchargés, l’exploration spatiale ou des ambiances cyberpunk). Selon lui, ce ton donne à ces idées une aura d’irréalité qui les rend moins crédibles. Le problème, explique-t-il, n’est pas de savoir si ces technologies sont possibles, mais plutôt que ce ton véhicule des hypothèses culturelles et des biais implicites sur ce qu’un futur souhaitable devrait être, ce qui peut éloigner les discussions des réalités pratiques.

Dario Amodei souligne que, malgré les préoccupations liées aux risques de l’IA, il est essentiel d’imaginer à quoi pourrait ressembler un monde positif avec une IA puissante, tout en évitant les pièges déjà évoqués. Il insiste sur l’importance de se projeter dans un avenir inspirant, plutôt que de se contenter de se préparer à gérer des crises. Bien que l’IA comporte des risques et des dangers, il estime qu’il est crucial de poursuivre un objectif commun – un avenir où tout le monde est gagnant, un idéal capable de rassembler les gens pour surmonter leurs différences et relever les défis à venir. Selon lui, la peur peut être un moteur, mais elle ne suffit pas : l’espoir est tout aussi nécessaire.

Amodei explique que les applications positives d’une IA puissante sont innombrables, couvrant des domaines tels que la robotique, la fabrication, l’énergie, et bien d’autres. Cependant, il choisit de se concentrer sur quelques secteurs qui, selon lui, ont le plus grand potentiel pour améliorer directement la qualité de vie humaine. Les cinq domaines qui l’enthousiasment particulièrement sont :

  • Biologie et santé physique
  • Neuroscience et santé mentale
  • Développement économique et lutte contre la pauvreté
  • Paix et gouvernance
  • Travail et sens de la vie

Il reconnaît que ses prédictions pourront sembler radicales par rapport aux standards actuels (à l’exception des visions « singularité » de la science-fiction), mais il les exprime avec sincérité et réflexion. Amodei admet que tout ce qu’il avance pourrait s’avérer erroné, mais il a tenté de fonder ses opinions sur une évaluation semi-analytique de la manière dont les progrès dans divers domaines pourraient s’accélérer et de ce que cela impliquerait en pratique. Avec une expérience professionnelle en biologie et en neurosciences, ainsi qu’un intérêt éclairé pour le développement économique, il reste conscient de ses limites et de la possibilité de se tromper sur de nombreux points.

Dario Amodei explore les capacités et les limites d’une IA supérieure à l’humain

En écrivant cet essai, Amodei a réalisé qu’il serait précieux de réunir un groupe d’experts (en biologie, économie, relations internationales, etc.) pour produire une version bien plus aboutie et informée de ce qu’il a esquissé. Il invite donc à considérer ses efforts comme un point de départ pour ce travail collectif.

Dario Amodei commence par établir un cadre de réflexion pour son essai, en précisant qu’il est essentiel de définir clairement ce qu’on entend par « IA puissante » – le seuil à partir duquel un compte à rebours de 5 à 10 ans pourrait commencer – et de poser un cadre pour évaluer les effets d’une telle IA une fois qu’elle sera opérationnelle. Il explique que la question de savoir à quoi ressemblera une IA puissante (il n’aime pas le terme AGI, ou intelligence artificielle générale) et quand (ou si) elle arrivera est un sujet complexe en soi. Il a déjà abordé ce sujet publiquement et envisage d’écrire un essai complet sur la question. Il note que beaucoup de gens sont sceptiques quant à la possibilité qu’une IA puissante soit développée rapidement, et certains doutent même qu’elle le soit un jour.

Cependant, Amodei pense qu’une telle IA pourrait voir le jour dès 2026, bien qu’il admette que cela pourrait prendre beaucoup plus de temps. Pour les besoins de cet essai, il choisit de mettre ces questions de côté, en supposant qu’une IA puissante arrivera assez tôt, et se concentre sur ce qui pourrait se passer dans les 5 à 10 années qui suivront. Il propose également une définition de ce à quoi ressemblerait un tel système, ses capacités et ses modes d’interaction, tout en reconnaissant que des désaccords pourraient exister sur ces points.

Amodei définit une « IA puissante » comme un modèle d’IA – probablement similaire aux modèles de langage actuels (LLM) dans leur forme, mais pouvant être basé sur une architecture différente, impliquer plusieurs modèles interagissant entre eux, et être entraîné différemment. Il décrit cette IA comme ayant les propriétés suivantes :

Intelligence pure : Elle serait plus intelligente qu’un lauréat du prix Nobel dans la plupart des domaines pertinents – biologie, programmation, mathématiques, ingénierie, écriture, etc. Cela signifie qu’elle pourrait prouver des théorèmes mathématiques non résolus, écrire des romans exceptionnels, créer des bases de code complexes à partir de zéro, etc ;
Interfaces multiples : En plus d’être une « chose intelligente à laquelle on parle », elle disposerait de toutes les interfaces disponibles pour un humain travaillant virtuellement, y compris le texte, l’audio, la vidéo, le contrôle de la souris et du clavier, et l’accès à Internet. Elle pourrait engager toute action, communication ou opération à distance, comme agir sur Internet, donner des instructions aux humains, commander des matériaux, diriger des expériences, regarder ou créer des vidéos, etc., avec une compétence supérieure à celle des humains les plus capables ;
Autonomie : Elle ne se contenterait pas de répondre passivement aux questions ; elle pourrait recevoir des tâches prenant des heures, des jours ou des semaines à accomplir, puis les exécuter de manière autonome, comme un employé intelligent, en demandant des clarifications si nécessaire ;
Contrôle physique : Bien qu’elle n’ait pas de corps physique (autre qu’un écran d’ordinateur), elle pourrait contrôler des outils physiques, des robots ou des équipements de laboratoire via un ordinateur. En théorie, elle pourrait même concevoir des robots ou des équipements pour son propre usage ;
Scalabilité : Les ressources utilisées pour entraîner le modèle pourraient être réutilisées pour exécuter des millions d’instances de celui-ci (ce qui correspond aux tailles de clusters projetées vers 2027), et le modèle pourrait absorber des informations et générer des actions à une vitesse 10 à 100 fois supérieure à celle des humains. Cependant, il pourrait être limité par le temps de réponse du monde physique ou des logiciels avec lesquels il interagit ;
Collaboration : Chacune de ces millions de copies pourrait agir de manière indépendante sur des tâches non liées, ou, si nécessaire, toutes pourraient travailler ensemble comme le feraient des humains, avec des sous-populations spécialisées pour des tâches spécifiques.

Amodei résume cela comme un « pays de génies dans un centre de données ». Il souligne qu’une telle entité serait capable de résoudre des problèmes très complexes très rapidement, mais il est difficile de déterminer à quelle vitesse. Il rejette deux positions extrêmes :

  1. La Singularité instantanée : L’idée que le monde serait transformé en quelques secondes ou jours, car une intelligence supérieure s’auto-alimenterait et résoudrait presque immédiatement toutes les tâches scientifiques, techniques et opérationnelles possibles. Amodei explique que cette vision ignore les limites physiques et pratiques, comme la construction de matériel ou la conduite d’expériences biologiques. Même un « pays de génies » se heurterait à ces contraintes. L’intelligence est puissante, mais elle n’est pas magique ;
  2. Le progrès saturé : L’idée que le progrès technologique est limité par des données du monde réel ou des facteurs sociaux, et qu’une intelligence supérieure n’ajouterait que très peu. Amodei trouve cette position tout aussi invraisemblable, car il peut penser à des centaines de problèmes scientifiques ou sociaux où un groupe de personnes très intelligentes accélérerait considérablement les progrès, surtout si elles peuvent agir dans le monde réel (comme le pourrait son « pays de génies », en dirigeant ou en assistant des équipes humaines).

Espionnage chinois dans l’IA : une menace surestimée ou un risque stratégique majeur ?

Le sujet soulevé par Dario Amodei, PDG d’Anthropic,...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !