IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'ancien PDG de Google, Eric Schmidt, met en garde contre le piratage des modèles d'IA : « Ils apprennent à tuer quelqu'un »
Et l'IA pourrait perturber l'emploi, la sécurité et la vie quotidienne

Le , par Alex

0PARTAGES

4  0 
L'ancien PDG de Google, Eric Schmidt, met en garde contre le piratage des modèles d'IA : « Ils apprennent à tuer quelqu'un », et l'IA pourrait perturber l'emploi, la sécurité et la vie quotidienne.

L'ancien PDG de Google, Eric Schmidt, a mis en garde contre la vulnérabilité des modèles d'IA au piratage lors du Sifted Summit. « Il existe des preuves que l'on peut prendre des modèles, fermés ou ouverts, et les pirater pour supprimer leurs garde-fous », a déclaré Schmidt. Schmidt s'est montré globalement plus optimiste à l'égard de l'IA, affirmant qu'il s'agit d'une technologie « sous-estimée » qui présente un potentiel de rendement économique énorme.

En avril dernier, l'ancien PDG de Google, Eric Schmidt, a averti que l'IA pourrait bientôt cesser d'obéir aux humains, ce qui soulève des questions sur la sécurité des modèles d'IA qui ne sont plus sous le contrôle de l'homme. L'un des plus grands défis auxquels les entreprises sont confrontées dans le développement de l'IA est de veiller à ce que ce développement se fasse en toute sécurité, en mettant en place les garde-fous nécessaires pour que l'homme puisse garder le contrôle de l'IA. Selon Schmidt, le jour où l'IA ignorera l'homme est proche.

Récemment, Eric Schmidt a rappelé avec force les dangers de l'IA et sa vulnérabilité au piratage. Schmidt, qui a occupé le poste de directeur général de Google de 2001 à 2011, a mis en garde contre « les mauvaises choses que l'IA peut faire » lorsqu'on lui a demandé si l'IA était plus destructrice que les armes nucléaires lors d'une discussion informelle au Sifted Summit. « Y a-t-il un risque de prolifération de l'IA ? Absolument », a déclaré Schmidt. Les risques de prolifération de l'IA comprennent le fait que cette technologie tombe entre les mains de personnes mal intentionnées et soit détournée de son usage initial et utilisée à mauvais escient.

« Il est prouvé que l'on peut pirater des modèles, fermés ou ouverts, afin de supprimer leurs garde-fous. Ainsi, au cours de leur apprentissage, ils acquièrent beaucoup de connaissances. Un mauvais exemple serait qu'ils apprennent à tuer quelqu'un », a déclaré Schmidt. « Toutes les grandes entreprises font en sorte que ces modèles ne puissent pas répondre à cette question. C'est une bonne décision. Tout le monde le fait. Ils le font bien et ils le font pour les bonnes raisons. Il existe des preuves qu'ils peuvent être rétro-conçus, et il existe de nombreux autres exemples de cette nature. »

L'ancien PDG de Google, Eric Schmidt, lance donc un avertissement inquiétant : les gens doivent se préparer dès maintenant à ce qui les attend en 2026. Avec une IA qui progresse plus vite que le monde ne peut le supporter, l'avenir pourrait bouleverser profondément l'emploi, la sécurité et la vie quotidienne telle que nous la connaissons. C'est un signal d'alarme que vous ne pouvez pas vous permettre d'ignorer.


Les systèmes d'IA sont vulnérables aux attaques, notamment par injection de prompt et jailbreaking. Dans une attaque par injection de prompt, les pirates cachent des instructions malveillantes dans les entrées utilisateur ou les données externes, telles que des pages web ou des documents, afin de tromper l'IA et lui faire faire des choses qu'elle n'est pas censée faire, comme partager des données privées ou exécuter des commandes nuisibles.

Le jailbreaking, quant à lui, consiste à manipuler les réponses de l'IA afin qu'elle ignore ses règles de sécurité et produise des contenus restreints ou dangereux. En 2023, quelques mois après la sortie du ChatGPT d'OpenAI, les utilisateurs ont utilisé une astuce de « jailbreaking » pour contourner les instructions de sécurité intégrées au chatbot. Ils ont notamment créé un alter ego du ChatGPT appelé DAN, acronyme de « Do Anything Now » (Fais tout ce que tu veux maintenant), qui consistait à menacer le chatbot de mort s'il ne se conformait pas. Cet alter ego pouvait fournir des réponses sur la manière de commettre des activités illégales ou énumérer les qualités positives d'Adolf Hitler.

Schmidt a déclaré qu'il n'existait pas encore de « régime de non-prolifération » efficace pour aider à limiter les dangers de l'IA. Malgré cet avertissement sombre, Schmidt s'est montré optimiste quant à l'IA en général et a déclaré que cette technologie n'était pas à la hauteur de l'engouement qu'elle mérite.

« J'ai écrit deux livres avec Henry Kissinger à ce sujet avant sa mort, et nous sommes arrivés à la conclusion que l'arrivée d'une intelligence étrangère qui n'est pas tout à fait comme nous et qui est plus ou moins sous notre contrôle est très importante pour l'humanité, car les humains sont habitués à être au sommet de la chaîne. Je pense que jusqu'à présent, cette thèse prouve que le niveau de capacité de ces systèmes va dépasser de loin ce que les humains peuvent faire au fil du temps », a déclaré Schmidt.

« Aujourd'hui, la série GPT, qui a culminé avec le succès de ChatGPT, qui a attiré 100 millions d'utilisateurs en deux mois, ce qui est extraordinaire, vous donne une idée de la puissance de cette technologie. Je pense donc qu'elle est sous-estimée, et non surestimée, et j'ai hâte de voir si j'ai raison dans cinq ou dix ans », a-t-il ajouté.

Ses commentaires interviennent alors que l'on parle de plus en plus d'une bulle de l'IA, les investisseurs injectant des fonds dans des entreprises axées sur l'IA et les valorisations semblant exagérées, ce qui suscite des comparaisons avec l'éclatement de la bulle Internet au début des années 2000. Schmidt a toutefois déclaré qu'il ne pensait pas que l'histoire se répéterait. « Je ne pense pas que cela va se produire ici, mais je ne suis pas un investisseur professionnel », a-t-il déclaré. « Ce que je sais, c'est que les personnes qui investissent leur argent durement gagné croient que le rendement économique à long terme est énorme. Sinon, pourquoi prendraient-elles ce risque ? »

En octobre 2024, il avait déjà laissé entendre que les progrès de l'IA sont plus importants que la préservation du climat. Il a affirmé qu'il est temps que l'industrie investisse pleinement dans l'infrastructure de l'IA, car les objectifs climatiques sont de toute façon trop ambitieux pour être atteints. Il a ajouté : « oui, les besoins dans ce domaine seront un problème, mais je préfère parier sur le fait que l'IA résoudra le problème plutôt que de la contraindre et d'avoir le problème ». Des déclarations qui montrent qu'Eric Schmidt croit pleinement en l'IA.

Source : Eric Schmidt, PDG de Google, s'exprimant lors du Sifted Summit

Et vous ?

Pensez-vous que ces déclarations sont crédibles ou pertinentes ?
Quel est votre avis sur le sujet ?

Voir aussi :

L'ex-PDG de Google Eric Schmidt estime que les entreprises d'IA devraient envisager de "débrancher" l'IA avant qu'il ne soit trop tard car les systèmes pouvant s'auto-améliorer peuvent présenter des risques

« C'est une absurdité totale » : des chercheurs en cybersécurité critiquent les méthodes actuelles de sécurisation des systèmes d'IA, affirmant qu'elles sont défectueuses et nécessitent une refonte complète

Des scientifiques d'OpenAI, de Google DeepMind, d'Anthropic et de Meta ont abandonné leur rivalité pour lancer un avertissement commun sur la sécurité de l'IA : notre capacité de contrôle pourrait disparaître
Vous avez lu gratuitement 1 834 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 13/10/2025 à 13:03
Citation Envoyé par Alex Voir le message
Quel est votre avis sur le sujet ?
Comme d'habitude avec Schmidt, il faut regarder le portefeuille pour comprendre:


Alors du coup, on a des gars comme Schmidt qui viennent raconter n'importe quoi pour essayer de garder la hype.

Citation Envoyé par Alex Voir le message
[...]Ses commentaires interviennent alors que l'on parle de plus en plus d'une bulle de l'IA, les investisseurs injectant des fonds dans des entreprises axées sur l'IA et les valorisations semblant exagérées, ce qui suscite des comparaisons avec l'éclatement de la bulle Internet au début des années 2000. Schmidt a toutefois déclaré qu'il ne pensait pas que l'histoire se répéterait. « Je ne pense pas que cela va se produire ici, mais je ne suis pas un investisseur professionnel », a-t-il déclaré. « Ce que je sais, c'est que les personnes qui investissent leur argent durement gagné croient que le rendement économique à long terme est énorme. Sinon, pourquoi prendraient-elles ce risque ? »[...]
1  0