IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le « parrain de l'IA » met en garde contre la plus grande erreur que les humains peuvent commettre aujourd'hui en matière d'IA et explique comment coexister : « Ils finiront probablement par nous anéantir »

Le , par Alex

0PARTAGES

4  0 
Le « parrain de l'IA » met en garde contre la plus grande erreur que les humains peuvent commettre aujourd'hui en matière d'IA et explique comment coexister : « Ils finiront probablement par nous anéantir »

Geoffrey Hinton, surnommé le « parrain de l'IA », a mis en garde contre la plus grande erreur que les humains puissent commettre aujourd'hui en matière d'IA. Il a lancé cette mise en garde : « Si nous les créons de telle sorte qu'ils ne se soucient pas de nous, ils finiront probablement par nous anéantir. » Hinton a également déclaré se sentir « très triste » à propos de la technologie qu'il a contribué à créer et de ce qu'il considère comme l'incapacité du monde à prendre au sérieux les risques croissants qu'elle présente. Hinton a indiqué qu'il craignait même que l'IA soit mise sur le marché à un moment où les pays ont plus de mal à travailler ensemble. Il a également souligné la montée des politiques autoritaires, qui rendent plus difficile la mise en place d'une réglementation stricte.

Geoffrey Everest Hinton, né le 6 décembre 1947, est un informaticien, cognitiviste et psychologue cognitif britannique-canadien connu pour ses travaux sur les réseaux neuronaux artificiels, qui lui ont valu le titre de « parrain de l'IA ». Hinton est professeur émérite à l'université de Toronto. De 2013 à 2023, il a partagé son temps entre Google Brain et l'université de Toronto. En mai 2023, Hinton a annoncé sa démission de Google afin de pouvoir « s'exprimer librement sur les risques liés à l'IA ». Il a fait part de ses inquiétudes concernant l'utilisation abusive délibérée par des acteurs malveillants, le chômage technologique et le risque existentiel lié à l'intelligence artificielle générale (AGI).

En octobre 2023, il a notamment déclaré : « Ce que nous avons fait, c'est concevoir l'algorithme d'apprentissage. C'est un peu comme concevoir le principe de l'évolution. Mais lorsque cet algorithme d'apprentissage interagit avec les données, il produit des réseaux neuronaux compliqués qui sont capables de faire certaines choses. Mais nous ne comprenons pas exactement comment ils font ces choses. » Puis Geoffrey Hinton a lancé un avertissement : « L'IA peut finir par dominer les humains. »

Récemment, Geoffrey Hinton, surnommé le « parrain de l'IA », a mis en garde contre la plus grande erreur que les humains puissent commettre aujourd'hui en matière d'IA. Dans une récente interview accordée à BBC Newsnight, Hinton a souligné que la plus grande erreur que les humains puissent commettre serait de ne pas investir dans la recherche sur la manière de coexister avec les systèmes intelligents qu'ils ont créés. Il a lancé cette mise en garde : « Si nous les créons de telle sorte qu'ils ne se soucient pas de nous, ils finiront probablement par nous anéantir. »

Hinton a également déclaré se sentir « très triste » à propos de la technologie qu'il a contribué à créer et de ce qu'il considère comme l'incapacité du monde à prendre au sérieux les risques croissants qu'elle présente. « Cela me rend très triste d'avoir consacré ma vie à développer cette technologie, qui est désormais extrêmement dangereuse, et que les gens ne prennent pas suffisamment au sérieux les dangers qu'elle représente », a déclaré Hinton dans l'interview.


Il a ajouté que l'humanité approchait d'un moment critique, alors que les chercheurs se rapprochent de la construction de machines plus intelligentes que les humains. « Nous ne nous sommes jamais trouvés dans une situation où nous étions capables de produire des choses plus intelligentes que nous », a ajouté Hinton, soulignant que de nombreux experts pensent que l'IA surpassera l'intelligence humaine dans les 20 prochaines années, alors que c'est déjà le cas dans de nombreux domaines.

Une fois que cela se produira, a-t-il déclaré, contrôler ces systèmes pourrait devenir beaucoup plus difficile que beaucoup ne le pensent. « L'idée que l'on puisse simplement l'éteindre ne fonctionnera pas », a déclaré Hinton, ajoutant qu'une IA suffisamment avancée pourrait persuader les humains de ne pas la désactiver.

Hinton a contribué à la création des réseaux neuronaux qui constituent le fondement de l'intelligence artificielle moderne et est devenu l'un des critiques les plus virulents dans ce domaine, à mesure que les systèmes d'IA deviennent plus puissants et plus répandus. Il a prédit que l'IA pourrait entraîner des pertes d'emplois massives, alimenter les troubles sociaux et finir par surpasser les humains. Hinton a même déclaré que les chercheurs devraient se concentrer davantage sur la manière dont les systèmes avancés sont formés, notamment en s'assurant qu'ils sont conçus pour protéger les intérêts humains.

Hinton a indiqué qu'il craignait même que l'IA soit mise sur le marché à un moment où les pays ont plus de mal à travailler ensemble. Il a également souligné la montée des politiques autoritaires, qui rendent plus difficile la mise en place d'une réglementation stricte. Hinton a comparé la nécessité de gérer l'IA aux accords mondiaux qui contrôlent les armes chimiques et nucléaires.

Malgré ces préoccupations, Hinton a déclaré qu'il ne renierait pas son travail sur l'IA. « Elle aurait été développée sans moi. Je ne pense pas avoir pris de décisions que je ne prendrais pas de la même manière si j'avais les mêmes connaissances », a-t-il ajouté. Hinton a déclaré qu'il restait optimiste quant à la manière dont l'IA pouvait contribuer à améliorer l'éducation et les soins de santé. Il a cité les tuteurs IA et les progrès en imagerie médicale comme exemples de l'utilité de cette technologie.

Cependant, Hinton a souligné qu'il fallait agir rapidement. « Nous sommes à un moment crucial de l'histoire, où nous allons bientôt développer des technologies plus intelligentes que nous. Nous n'avons pas encore mené les recherches nécessaires pour déterminer si nous pouvons coexister pacifiquement avec elles. Il est essentiel que nous menions ces recherches », a-t-il expliqué.

Ces déclarations rappellent qu'en octobre 2025, plus de 800 figures publiques — scientifiques, ingénieurs, entrepreneurs, philosophes, artistes, et même membres de la royauté britannique — se sont unies pour demander l’interdiction pure et simple du développement d’une intelligence artificielle « superintelligente ». Parmi elles, Geoffrey Hinton, Yoshua Bengio, Steve Wozniak, mais aussi Prince Harry et Meghan Markle. Cette démarche a été initiée par le Future of Life Institute (FLI), déjà à l’origine de la fameuse lettre de 2023 qui appelait à « faire une pause » dans les grands projets d’IA. Mais cette fois, le ton est plus ferme. Il ne s’agit plus de ralentir la recherche, mais bien de tirer un frein d’urgence global.

Source : Geoffrey Hinton dans une interview accordée à BBC Newsnight

Et vous ?

Pensez-vous que cette déclaration est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

Geoffrey Hinton, « parrain de l'IA », déclare être « heureux d'avoir 77 ans » pour échapper à une éventuelle prise de contrôle de l'IA, comparant l'évolution de la technologie à élever un tigre sans cage

Le monde «pourrait ne pas avoir le temps» de se préparer aux risques liés à la sécurité de l'IA, selon un chercheur. L'industrie joue-t-elle avec le feu en déployant des systèmes que personne ne maîtrise ?

Sam Altman, la plus grande star de l'IA, espère que quelqu'un trouvera le moyen d'empêcher l'IA de détruire l'humanité, il est accusé de se défausser de ses responsabilités concernant les risques liés à l'IA
Vous avez lu gratuitement 910 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !