IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« Vous n'êtes pas prêts pour 2027 », met en garde l'ancien PDG de Google, Eric Schmidt, à propos de la prochaine génération d'IA et de la façon dont tout est sur le point de changer avec l'arrivée de l'AGI

Le , par Alex

19PARTAGES

6  0 
« Vous n’êtes pas prêts pour 2027 », met en garde l’ancien PDG de Google, Eric Schmidt, à propos de la prochaine génération d’IA et de la façon dont tout est sur le point de changer avec l’arrivée de l’AGI

L’ancien PDG de Google, Eric Schmidt, a de nouveau averti que l'IA pourrait présenter des risques existentiels et les gouvernements doivent savoir comment s'assurer que cette technologie ne soit pas « détournée par des personnes malveillantes ». L'ancien PDG de Google, Eric Schmidt, a déclaré : « Et le risque existentiel se définit par le fait que de très, très, très nombreuses personnes soient blessées ou tuées ».

Eric Schmidt, né le 27 avril 1955, est un homme d'affaires américain et ancien ingénieur en informatique qui a occupé le poste de PDG de Google de 2001 à 2011, puis celui de président exécutif de la société de 2011 à 2015. Il a également été président exécutif de la société mère Alphabet Inc. de 2015 à 2017, et conseiller technique chez Alphabet de 2017 à 2020. Depuis 2025, il est PDG de Relativity Space, une entreprise de fabrication aérospatiale. En 2025, il figure parmi les personnes les plus riches du monde selon le Bloomberg Billionaires Index, avec une fortune estimée à 54,5 milliards de dollars américains.

En 2024, Eric Schmidt, ancien PDG de Google, a tiré la sonnette d'alarme concernant les progrès rapides de l'intelligence artificielle (IA), avertissant que les systèmes capables de s'améliorer par eux-mêmes pourraient présenter des risques imprévus. Schmidt a laissé entendre qu'à mesure que l'IA évolue, il pourrait arriver un moment où l'humanité devrait envisager de « débrancher » ces systèmes avant qu'ils ne deviennent incontrôlables. Des commentaires qui interviennaient alors que la course à l'IA continue de s'accélérer, les entreprises repoussant les limites de l'innovation en dépit d'une surveillance réglementaire limitée.

Récemment, il a de nouveau averti que l'IA pourrait présenter des risques existentiels et les gouvernements doivent savoir comment s'assurer que cette technologie ne soit pas « détournée par des personnes malveillantes ». L'ancien PDG de Google, Eric Schmidt, a déclaré : « Et le risque existentiel se définit par le fait que de très, très, très nombreuses personnes soient blessées ou tuées ». L'avenir de l'IA est au cœur des discussions entre les technologues et les décideurs politiques, qui s'interrogent sur l'évolution future de cette technologie et sur la manière dont elle devrait être réglementée.

S’exprimant lors du CEO Council Summit du Wall Street Journal à Londres, Schmidt a déclaré que sa préoccupation était que l’IA représente un « risque existentiel ». « Et le risque existentiel se définit par le fait que de très, très, très nombreuses personnes soient blessées ou tuées », a déclaré Schmidt. « Il existe des scénarios, non pas aujourd’hui, mais dans un avenir raisonnablement proche, où ces systèmes seront capables de détecter des failles de type « zero-day » dans les cyberattaques, ou de découvrir de nouveaux types de biologie. Aujourd’hui, cela relève de la fiction, mais le raisonnement sous-jacent est probablement vrai. Et lorsque cela se produira, nous voulons être prêts à savoir comment nous assurer que ces technologies ne soient pas détournées par des personnes malveillantes. »

Les failles de type « zero-day » sont des vulnérabilités de sécurité découvertes par des pirates informatiques dans des logiciels et des systèmes. Schmidt, qui a été PDG de Google de 2001 à 2011, n’avait pas d’avis tranché sur la manière dont l’IA devrait être réglementée, mais a déclaré qu’il s’agissait d’une « question plus large pour la société ». Il a toutefois ajouté qu’il était peu probable qu’une nouvelle agence de régulation dédiée à l’IA soit créée aux États-Unis.


Schmidt n’est pas la première personnalité majeure du monde de la technologie à mettre en garde contre les risques de l’IA. Sam Altman, PDG d’OpenAI, qui a développé ChatGPT, a admis en mars qu’il était « un peu effrayé » par l’intelligence artificielle. Il a déclaré s’inquiéter de voir des gouvernements autoritaires développer cette technologie. Le PDG de Tesla, Elon Musk, a déclaré par le passé qu’il pensait que l’IA représentait l’un des « plus grands risques » pour la civilisation. Même l'actuel PDG de Google et d'Alphabet, Sundar Pichai, qui a récemment supervisé le lancement par l'entreprise de son propre chatbot IA, a déclaré que cette technologie « aura un impact sur tous les produits de toutes les entreprises », ajoutant que la société doit se préparer à ces changements.

En avril 2025, Eric Schmidt a déjà avertit que l'IA pourrait bientôt cesser d'obéir aux humains. "Les ordinateurs s'améliorent d'eux-mêmes. Ils apprennent à planifier et n'ont plus besoin de nous écouter", a-t-il déclaré. Schmidt a qualifié ce processus d'"auto-amélioration récursive" : l'IA génère des hypothèses, les teste dans des laboratoires robotisés et utilise les résultats pour s'améliorer, le tout sans intervention humaine.

Selon Schmidt, l'un des plus grands défis auxquels les entreprises sont confrontées dans le développement de l'IA est de veiller à ce que ce développement se fasse en toute sécurité, en mettant en place les garde-fous nécessaires pour que l'homme puisse garder le contrôle de l'IA. Schmidt a fait partie de la Commission de sécurité nationale sur l'IA aux États-Unis, qui a entamé en 2019 un examen de cette technologie, y compris d'un éventuel cadre réglementaire. La commission a publié son rapport en 2021, avertissant que les États-Unis n'étaient pas suffisamment préparés à l'ère de l'IA.

Voici un extrait des déclarations récentes de l'ancien PDG de Google, Eric Schmidt :


En fait, pour vous donner un peu de contexte, le Dr Henry Kissinger et moi avons passé énormément de temps à discuter de la période des années 1950, durant laquelle il a joué un rôle central dans tous ces événements. Il a donc mis à profit le fait que nous avions utilisé la bombe atomique pour négocier, sur une période d’environ 15 ans, une série de traités visant à limiter la prolifération nucléaire. Ces traités, lorsqu’ils ont été négociés, nous ont permis d’être encore en vie aujourd’hui.

Ils ont donc joué un rôle central : sans le contrôle de la diffusion de l’uranium enrichi et des autres secrets, nous serions tous littéralement cuits, à cause de fous furieux et autres. Existe-t-il un ensemble de mesures analogues que nous pouvons prendre ? Le problème ici, ou plutôt la bonne nouvelle, c’est que nous ne sommes pas en guerre. Nous n’avons pas eu de bombe nucléaire. Nous n’avons pas ce sujet à débattre. Nous pouvons donc en parler, mais les gouvernements ont tendance à agir de manière réactive.

Il existe actuellement trois menaces évidentes qui, je pense, sont assez bien comprises. La première est la désinformation. Les logiciels que nous mettons tous collectivement à la disposition des gens permettent toutes sortes de désinformations, de fausses vidéos, de fausses nouvelles, etc. Nous le comprenons tous. Tout est open source. C'est un fait. C'est une menace pour les démocraties, et peut-être pour les dictatures, mais certainement pour les démocraties.

La deuxième menace est le cyberespace. Et je pense qu'une façon de comprendre le cyberespace, c'est que si vous savez écrire du code, vous pouvez aussi créer des cyberattaques. C'est la même logique, et les progrès en matière de logiciels sont incroyables. C'est effrayant de voir à quel point ils sont performants ; rappelez-vous que j'ai fait carrière comme programmeur. Ces programmes fonctionnent mieux que je ne l'ai jamais fait. C'est choquant, n'est-ce pas ?

Et puis le troisième, c'est le domaine biologique. Et je pense que la plupart des gens croient que l'un de ces trois domaines va créer une sorte de mini-crise qui poussera alors les gouvernements à dire : « Attendez, discutons de la manière de vraiment gérer les inconvénients. » Les avantages sont incroyables, n'est-ce pas ? Et je veux que l'Amérique gagne, et je veux que nous avancions aussi vite que possible. Et c'est effectivement ce que nous faisons avec l'administration Trump, ce qui est formidable. Mais nous devons être conscients que ces choses sont possibles.

Celui qui m'inquiète particulièrement est d'ordre biologique et se présente à peu près comme suit. On prend un agent pathogène existant et, à l'aide de techniques biologiques dont je ne parlerai pas, on le modifie suffisamment pour qu'il ne puisse plus être détecté, mais qu'il reste tout de même assez dangereux. C'est un exemple de menace. Il y en a beaucoup d'autres.
Et vous ?

Pensez-vous que ces déclarations sont crédibles ou pertinentes ?
Quel est votre avis sur le sujet ?

Voir aussi :

L'ancien PDG de Google, Eric Schmidt, met en garde contre le piratage des modèles d'IA : « Ils apprennent à tuer quelqu'un » et l'IA pourrait perturber l'emploi, la sécurité et la vie quotidienne

Les plus grands scientifiques chinois et occidentaux de l'IA publient une déclaration : La menace existentielle que représente l'IA nécessite une collaboration similaire à celle de la guerre froide

Un rapport met en garde les entreprises d'IA contre les dangers liés à la construction de systèmes de niveau humain, elles ne disposent pas de plans crédibles pour garantir la sécurité de ces systèmes
Vous avez lu gratuitement 2 703 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 27/03/2026 à 17:13
Citation Envoyé par Alex Voir le message
[...]L’ancien PDG de Google, Eric Schmidt, a de nouveau averti que l'IA pourrait présenter des risques existentiels et les gouvernements doivent savoir comment s'assurer que cette technologie ne soit pas « détournée par des personnes malveillantes ». L'ancien PDG de Google, Eric Schmidt, a déclaré : « Et le risque existentiel se définit par le fait que de très, très, très nombreuses personnes soient blessées ou tuées ».[...]
Trop tard, ça appartient déjà à des gens malveillants puisque c'est aux mains de la Big Tech / GAFAM.
4  0