
comparant l'évolution de l'IA à élever un tigre sans cage
Un scientifique dont les travaux ont contribué à transformer le domaine de l'intelligence artificielle se dit « plutôt content » d'avoir 77 ans, car il ne vivra peut-être pas assez longtemps pour être témoin des conséquences potentiellement dangereuses de cette technologie.
Geoffrey Hinton, souvent considéré comme le « parrain de l'intelligence artificielle », a déclaré dans une interview que l'intelligence artificielle progresse plus rapidement que ne le prévoyaient les experts et que, lorsqu'elle dépassera l'intelligence humaine, l'humanité ne sera peut-être pas en mesure de l'empêcher de prendre le contrôle de la situation. « Des choses plus intelligentes que vous seront capables de vous manipuler », a déclaré Hinton, qui a reçu le prix Nobel de physique en 2024 pour ses percées dans le domaine de l'apprentissage automatique.
Geoffrey Hinton est l’un des pionniers fondateurs de l’intelligence artificielle moderne. Professeur émérite à l’université de Toronto et ancien employé de Google, il a co-inventé des algorithmes clés de l’apprentissage profond (notamment l’algorithme de rétropropagation pour les réseaux de neurones) et participé aux débuts du moteur de recherche Google Brain. Pour ces contributions, il a partagé le prix Turing 2018 (avec Yoshua Bengio et Yann LeCun) – l’équivalent du « Nobel de l’informatique » – et plus récemment le prix Nobel de physique 2024 avec le physicien américain John Joseph Hopfield pour « leurs découvertes et interventions fondamentales qui permettent l'apprentissage automatique avec des réseaux de neurones artificiels ». Surnommé « le parrain de l’IA », Hinton incarne le succès de l’apprentissage automatique (deep learning) qui anime aujourd’hui des applications de traduction automatique, de reconnaissance vocale et de robots autonomes.
Les dernières mises en garde de Hinton
Geoffrey Hinton a profité d’une interview sur CBS News pour lancer un nouvel avertissement sur l’IA. Il a confié être « assez content d’avoir 77 ans » car il pourrait « ne pas vivre assez longtemps » pour voir les conséquences dangereuses de cette technologie. En effet, les IA actuelles « progressent plus vite que prévu », a-t-il expliqué, et il prédit que « une fois qu’elles dépasseront l’intelligence humaine, l’humanité pourrait ne plus être capable d’empêcher qu’elles ne prennent le contrôle ». Pour illustrer ce propos, Hinton a comparé l’IA à un « tigreau vraiment mignon » qu’on élève enfant : à moins d’être absolument sûr qu’il ne voudra pas « vous tuer quand il sera adulte », il faut s’inquiéter. Chiffres à l’appui, il estime qu’il existe une « chance de 10% à 20% » qu’un système d’IA devienne un jour plus puissant que l’homme et prenne le contrôle
Ainsi, Hinton rejoint d’autres figures influentes du secteur (Sundar Pichai chez Google, Elon Musk chez X, Sam Altman chez OpenAI) qui ont exprimé des inquiétudes similaires sur les « risques profonds pour la société et l’humanité ». En 2023, Musk et plus de 1 000 experts ont signé une lettre ouverte demandant un moratoire sur le développement des IA les plus puissantes, estimant que la technologie peut « poser des risques profonds à la société et à l’humanité ». Il faut préciser que, tandis que Musk demandait à OpenAI de mettre un frein au développement de son IA, il travaillait de son côté sur un rival, le fameux xAI qui a donné naissance à Grok.
Quoiqu'il en soit, voici un extrait de cette lettre ouverte :
Les systèmes d'IA contemporains deviennent aujourd'hui compétitifs pour les tâches générales, et nous devons nous poser la question : Devons-nous laisser les machines inonder nos canaux d'information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus. Les systèmes d'IA puissants ne doivent être développés que lorsque nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables. Cette confiance doit être bien justifiée et augmenter avec l'ampleur des effets potentiels d'un système. La récente déclaration de l'OpenAI concernant l'intelligence artificielle générale indique qu'"à un moment donné, il pourrait être important d'obtenir un examen indépendant avant de commencer à former les futurs systèmes, et pour les efforts les plus avancés d'accepter de limiter le taux de croissance du calcul utilisé pour créer de nouveaux modèles". Nous sommes d'accord. C'est maintenant qu'il faut agir.
C'est pourquoi nous demandons à tous les laboratoires d'IA d'interrompre immédiatement, pendant au moins six mois, la formation de systèmes d'IA plus puissants que le GPT-4. Cette pause devrait être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut être mise en place rapidement, les gouvernements devraient intervenir et instituer un moratoire.
Les laboratoires d'IA et les experts indépendants devraient profiter de cette pause pour élaborer et mettre en œuvre conjointement un ensemble de protocoles de sécurité communs pour la conception et le développement de l'IA avancée, rigoureusement contrôlés et supervisés par des experts externes indépendants. Ces protocoles devraient garantir que les systèmes qui y adhèrent sont sûrs au-delà de tout doute raisonnable, ce qui ne signifie pas une pause dans le développement de l'IA en général, mais simplement un recul par rapport à la course dangereuse vers des modèles de boîte noire toujours plus grands et imprévisibles, dotés de capacités émergentes.
C'est pourquoi nous demandons à tous les laboratoires d'IA d'interrompre immédiatement, pendant au moins six mois, la formation de systèmes d'IA plus puissants que le GPT-4. Cette pause devrait être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut être mise en place rapidement, les gouvernements devraient intervenir et instituer un moratoire.
Les laboratoires d'IA et les experts indépendants devraient profiter de cette pause pour élaborer et mettre en œuvre conjointement un ensemble de protocoles de sécurité communs pour la conception et le développement de l'IA avancée, rigoureusement contrôlés et supervisés par des experts externes indépendants. Ces protocoles devraient garantir que les systèmes qui y adhèrent sont sûrs au-delà de tout doute raisonnable, ce qui ne signifie pas une pause dans le développement de l'IA en général, mais simplement un recul par rapport à la course dangereuse vers des modèles de boîte noire toujours plus grands et imprévisibles, dotés de capacités émergentes.
Pourquoi s’inquiéter de l’IA ?
Les arguments avancés par Hinton pour justifier ces craintes renvoient aux dérives théoriques et pratiques de l’IA. D’une part, le simple fait que les machines deviennent plus « intelligentes » que l’homme fait craindre une perte de contrôle : « Les choses plus intelligentes que vous sauront vous manipuler », prédit-il. D’autre part, les usages déjà observés soulignent des dangers concrets. On y inclut notamment la destruction massive d’emplois par automatisation, la propagation de deepfakes et de désinformation sophistiquée, ou encore une redoutable « course aux armements » entre États développant des systèmes autonomes létaux.
Hinton lui-même critique les géants du numérique : il leur reproche de favoriser la rapidité et le profit sur la sécurité, et exige qu’ils consacrent « comme un tiers » de leur capacité de calcul à la recherche en sécurité de l’IA, plutôt qu’une fraction marginale aujourd’hui. Hinton semble particulièrement déçu par Google, où il a travaillé auparavant, qui a changé de position sur les applications militaires de l'IA.
Selon Hinton, les entreprises d'IA devraient consacrer beaucoup plus de ressources à la recherche sur la sécurité - « environ un tiers » de leur puissance de calcul, par rapport à la fraction beaucoup plus faible qui leur est actuellement allouée.
Des garde-fous en place et des incertitudes
Ces mises en garde doivent cependant être mises en perspective. Beaucoup d’experts soulignent que les IA actuelles restent des systèmes « étroits » (narrow AI) sans conscience ni volonté propre. Il n’existe à ce jour aucun signe d’agent « vraiment conscient » réclamant indépendance ou survie. Du coup, selon eux, l’évolution de l’IA peut être contrôlée par des protocoles d’alignement et de sécurité, de même qu’il est toujours possible d’éteindre ou restreindre un système informatique.
Sur le plan institutionnel, de nombreux cadres éthiques et réglementaires se mettent en place pour encadrer l’IA. L’Union européenne a l’AI Act, un règlement ambitieux qui classe les usages de l’IA en trois niveaux de risque et impose des obligations strictes (transparence, supervision humaine, contrôles techniques) pour les systèmes à haut risque. Au niveau mondial, l’UNESCO a adopté en 2021 la première recommandation internationale sur l’éthique de l’IA, applicable à 193 pays, qui place la protection des droits humains et de la dignité au cœur du développement de l’IA. Des initiatives académiques et civiles participent également à la réflexion : par exemple, la « Déclaration de Montréal » (2018) a défini un ensemble de principes éthiques pour un développement responsable de l’IA « au service du bien-être de tous », avec l’adhésion d’organisations publiques, entreprises et citoyens
Enfin, les entreprises elles-mêmes communiquent sur leurs efforts en matière de sûreté. Google DeepMind, OpenAI ou d’autres start-ups de l’IA ont mis en place des équipes dédiées à « l’alignement » et plaident publiquement en faveur d’une régulation adaptée. Sans doute ont-elles intérêt à concilier innovation et sécurité, sachant que de nombreux chercheurs estiment que la confiance du public sera cruciale pour l’acceptabilité à long terme de l’IA.
Conclusion
Le débat reste ouvert. D’un côté, Hinton et d’autres experts insistent sur l’extraordinaire rapidité des progrès et les menaces d’une IA hors de contrôle. De l’autre, beaucoup jugent cette vision en partie spéculative et insistent sur la maîtrise humaine, la transparence et la collaboration internationales comme parades. Les pistes de règlementation et de recherche collaborative se multiplient – de la gestion de la « boîte noire » des algorithmes à l’auto-régulation via des principes éthiques – mais il n’existe pas encore de consensus. Ce climat de débat intense montre en tout cas que la communauté mondiale prend au sérieux la question de rendre l’IA à la fois puissante et sûre.
Sources : vidéo dans le texte, UNESCO
Et vous ?




Vous avez lu gratuitement 306 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.