IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'ancien PDG de Google, Eric Schmidt, avertit que l'IA pourrait bientôt ignorer le contrôle humain : "Les ordinateurs s'améliorent d'eux-mêmes. Ils apprennent à planifier et n'ont plus besoin de nous écouter"

Le , par Jade Emy

17PARTAGES

4  0 
L'ancien PDG de Google, Eric Schmidt, avertit que l'IA pourrait bientôt ignorer le contrôle humain : "Les ordinateurs s'améliorent d'eux-mêmes. Ils apprennent à planifier et n'ont plus besoin de nous écouter"

L'ancien PDG de Google, Eric Schmidt, avertit que l'IA pourrait bientôt cesser d'obéir aux humains, ce qui soulève des questions sur la sécurité des modèles d'IA qui ne sont plus sous le contrôle de l'homme. L'un des plus grands défis auxquels les entreprises sont confrontées dans le développement de l'IA est de veiller à ce que ce développement se fasse en toute sécurité, en mettant en place les garde-fous nécessaires pour que l'homme puisse garder le contrôle de l'IA. Selon Schmidt, le jour où l'IA ignorera l'homme est proche.

Fin 2024, Eric Schmidt, ancien PDG de Google, a tiré la sonnette d'alarme concernant les progrès rapides de l'intelligence artificielle (IA), avertissant que les systèmes capables de s'améliorer par eux-mêmes pourraient présenter des risques imprévus. Il avait alors laissé entendre qu'à mesure que l'IA évolue, il pourrait arriver un moment où l'humanité devrait envisager de "débrancher" ces systèmes avant qu'ils ne deviennent incontrôlables.

Eric Emerson Schmidt est un homme d'affaires américain, ancien ingénieur informaticien, PDG de Google de 2001 à 2011 et président exécutif de la société de 2011 à 2015, président exécutif de la société mère Alphabet Inc. de 2015 à 2017, et conseiller technique d'Alphabet de 2017 à 2020. Depuis 2025, il est PDG de Relativity Space, une entreprise de fabrication aérospatiale. En 2025, il est la 54e personne la plus riche du monde selon l'indice Bloomberg Billionaires Index, avec une valeur nette estimée à 32,4 milliards de dollars.

Plus récemment, l'ancien PDG de Google a affirmé ces propos et prévenu que l'IA progressait si rapidement qu'elle pourrait bientôt ne plus avoir besoin de l'aide de l'homme pour évoluer. S'exprimant lors d'un événement organisé par le Special Competitive Studies Project, un groupe de réflexion qu'il a fondé, Schmidt a décrit la manière dont les systèmes d'intelligence artificielle (IA) commençaient à fonctionner de manière autonome, à apprendre, à s'améliorer et même à planifier sans l'aide de l'homme.

"Les ordinateurs s'améliorent d'eux-mêmes. Ils apprennent à planifier et n'ont plus besoin de nous écouter", a-t-il déclaré. Schmidt a qualifié ce processus d'"auto-amélioration récursive" : l'IA génère des hypothèses, les teste dans des laboratoires robotisés et utilise les résultats pour s'améliorer, le tout sans intervention humaine.


Eric Schmidt a également prédit un changement majeur sur le marché de l'emploi. Il a déclaré que d'ici un an, l'IA remplacerait probablement "la grande majorité des programmeurs" et surpasserait les meilleurs talents humains dans des domaines tels que les mathématiques. "Nous pensions que l'IA était sous-estimée et non surestimée", a-t-il ajouté, soulignant que des outils tels que ChatGPT, Claude, Gemini et Deepseek sont déjà largement utilisés pour des tâches telles que le codage, bien qu'ils n'aient pas été formés à ces fins.

Schmidt a également témoigné devant la commission de l'énergie et du commerce de la Chambre des représentants des États-Unis, où il a fait part de ses inquiétudes concernant l'infrastructure énergétique du pays. Il a prévenu que l'ampleur de la puissance nécessaire à l'IA dépasserait bientôt ce que le réseau actuel peut supporter. "Les gens prévoyaient des centres de données de 10 gigawatts", a-t-il déclaré. "La centrale nucléaire moyenne aux États-Unis n'est que d'un gigawatt".

Selon lui, les États-Unis doivent repenser leur politique énergétique et investir rapidement dans les sources d'énergie renouvelables et non renouvelables pour éviter de se laisser distancer par des rivaux comme la Chine. Eric Schmidt a également plaidé en faveur d'une surveillance gouvernementale plus stricte de l'IA, en particulier des modèles à source ouverte, qui, selon lui, pourraient constituer des menaces pour la sécurité nationale s'ils n'étaient pas contrôlés.

Il a souligné que si l'IA s'améliorait rapidement, elle nécessitait toujours des données de haute qualité et une gouvernance humaine. "Les scientifiques sont aux commandes et l'IA les aide - c'est le bon ordre", a-t-il déclaré.

Cette prise de parole est la dernière en date de l'ancien PDG de Google, qui est habitué à partager son avis sur l'IA. En novembre, il avait, par exemple, mis en garde contre une nouvelle tendance inquiétante : les "petites amies parfaites" créées par des modèles d'IA avancés. Lors d’une conférence, Eric Schmidt a souligné que ces outils, capables de générer des interactions émotionnelles convaincantes, pourraient avoir des conséquences néfastes, notamment sur les jeunes hommes.

Et vous ?

Pensez-vous que ces déclarations sont crédibles ou pertinentes ?
Quel est votre avis sur le sujet ?

Voir aussi :

Eric Schmidt, ancien PDG de Google, déclare au Congrès que 99 % de toute l'électricité sera utilisée pour l'IA superintelligente : "Nous avons besoin d'énergie sous toutes ses formes, renouvelable ou non"

Faut-il adopter ou boycotter l'IA ? Un critique appelle à boycotter l'IA, car elle n'est ni bonne pour la créativité ni bonne pour les compétences, et a été créée pour escroquer les utilisateurs

L'ex-PDG de Google Eric Schmidt estime que les entreprises d'IA devraient envisager de "débrancher" l'IA avant qu'il ne soit trop tard, car les systèmes pouvant s'auto-améliorer peuvent présenter des risques
Vous avez lu gratuitement 218 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 26/05/2025 à 20:16
Citation Envoyé par Mathis Lucas Voir le message
Quel est votre avis sur le sujet ?
Mouais. Si le gars est vraiment un "scientifique", alors ils sait que son bidule n'a aucune intelligence.

Par contre, il a certainement un beau portefeuille d'actions qui le fait profiter au maximum de toute cette "hype" autour des IA génératives

Il a donc tout intérêt à faire croire que sa "calculatrice" est en fait intelligente et presque consciente.
2  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 24/04/2025 à 13:37
Citation Envoyé par Jade Emy Voir le message
L'ancien PDG de Google, Eric Schmidt, avertit que l'IA pourrait bientôt cesser d'obéir aux humains, ce qui soulève des questions sur la sécurité des modèles d'IA qui ne sont plus sous le contrôle de l'homme. L'un des plus grands défis auxquels les entreprises sont confrontées dans le développement de l'IA est de veiller à ce que ce développement se fasse en toute sécurité, en mettant en place les garde-fous nécessaires pour que l'homme puisse garder le contrôle de l'IA. Selon Schmidt, le jour où l'IA ignorera l'homme est proche.
Il "n'avertit" de rien du tout; il veut faire monter la hype auprès des actionnaires de ses entreprises de drones kamikazes.
1  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 27/05/2025 à 7:36
Citation Envoyé par Mathis Lucas Voir le message
Mais alors que le reste de l'humanité débat des avantages et des inconvénients d'une technologie que même les chercheurs ont du mal à comprendre, Ilya Sutskever planifiait déjà le jour où son équipe arriverait en tête de la course au développement de l'AGI. Il a estimé que ses collègues scientifiques auraient besoin d'une protection à ce moment-là, car l'AGI est trop puissante pour ne pas devenir un objet de convoitise pour les puissances du monde entier.
Le bunker a un problème de base critique : c'est un lieu qui n'est pas viable à long terme. Il est entièrement isolé du reste du monde et donc fermé donc impossible d'y tenir si longtemps (la nourriture viendra un moment ou un autre à disparaitre).
Si l'AGI est si puissante alors ceux qui la convoitent auront tout le temps d'attendre que vous en sortiez.
En plus nous avons besoin de renouveler l'air, le bunker n'est donc pas totalement hermétique, et je n'aurait pas du tout envie de vivre dans un boite de conserve alors que des gens fort peu fréquentables et à l'éthique discutable veulent absolument m'en faire sortir...
1  0 
Avatar de oznogco
Candidat au Club https://www.developpez.com
Le 11/06/2025 à 13:39
Le danger à craindre, ce sont les hommes, les nations, les gouvernements, les armées, l'industrie, l'économie, etc. D'autant qu'en 2025, tout ce que nous pensions derrière nous se retrouve devant... L'histoire est un balancier qui ne cesse de se répéter. La phalange des Grecs à l'Empire perse, les

L'hoplite et la phalange ont mis en déroute et mis un terme à l'Empire perse comme un raz de marée. Puis, la mobilité et la flexibilité tout-terrain à permis à la légion romaine d'anéantir sans aucun problème les Grecs (aidé par le nombrilisme de ses derniers toujours bien d'actualité) et que dire de l'industrialisation et de la Première Guerre, la bombe atomique de la deuxième, etc. Est-ce que l'humanité pourra comprendre à temps, voilà la question, ce n'est qu'une question de temps...

Et ce sans même aborder le problème de nos données personnelles, de la béquille que représente l'IA pour la créativité humaine.

Quant aux bunkers, c'est pour protéger les scientifiques des états... Personnellement, ce n'est pas mes 40 ans d'expérience en programmation, mais ma passion pour l'histoire qui sonne l'alarme... Et avec la géopolitique de 2025, je ferme toutes mes dépendances à ses GAFAM ambitieux contrairement à la majorité... J'ai même commencé à produire des sites Web qui leurrent l'intelligence artificielle ;- )

La sécurité aussi, les deux facteurs, etc., basés sur toujours plus de données personnelles. Le secret de la sécurité c'est les couches, mais du point de vue d'un individu, c'est une perte de contrôle qui s'accumule. Attention à vos données personnelles en terminant...
0  0