
Geoffrey Hinton, souvent considéré comme le « parrain de l'intelligence artificielle », a déclaré dans une interview que l'intelligence artificielle progresse plus rapidement que ne le prévoyaient les experts et que, lorsqu'elle dépassera l'intelligence humaine, l'humanité ne sera peut-être pas en mesure de l'empêcher de prendre le contrôle de la situation. « Des choses plus intelligentes que vous seront capables de vous manipuler », a déclaré Hinton, qui a reçu le prix Nobel de physique en 2024 pour ses percées dans le domaine de l'apprentissage automatique.
Geoffrey Hinton est l’un des pionniers fondateurs de l’intelligence artificielle moderne. Professeur émérite à l’université de Toronto et ancien employé de Google, il a co-inventé des algorithmes clés de l’apprentissage profond (notamment l’algorithme de rétropropagation pour les réseaux de neurones) et participé aux débuts du moteur de recherche Google Brain. Pour ces contributions, il a partagé le prix Turing 2018 (avec Yoshua Bengio et Yann LeCun) – l’équivalent du « Nobel de l’informatique » – et plus récemment le prix Nobel de physique 2024 avec le physicien américain John Joseph Hopfield pour « leurs découvertes et interventions fondamentales qui permettent l'apprentissage automatique avec des réseaux de neurones artificiels ». Surnommé « le parrain de l’IA », Hinton incarne le succès de l’apprentissage automatique (deep learning) qui anime aujourd’hui des applications de traduction automatique, de reconnaissance vocale et de robots autonomes.
Les dernières mises en garde de Hinton
Geoffrey Hinton a profité d’une interview sur CBS News pour lancer un nouvel avertissement sur l’IA. Il a confié être « assez content d’avoir 77 ans » car il pourrait « ne pas vivre assez longtemps » pour voir les conséquences dangereuses de cette technologie. En effet, les IA actuelles « progressent plus vite que prévu », a-t-il expliqué, et il prédit que « une fois qu’elles dépasseront l’intelligence humaine, l’humanité pourrait ne plus être capable d’empêcher qu’elles ne prennent le contrôle ». Pour illustrer ce propos, Hinton a comparé l’IA à un « tigreau vraiment mignon » qu’on élève enfant : à moins d’être absolument sûr qu’il ne voudra pas « vous tuer quand il sera adulte », il faut s’inquiéter. Chiffres à l’appui, il estime qu’il existe une « chance de 10% à 20% » qu’un système d’IA devienne un jour plus puissant que l’homme et prenne le contrôle
Ainsi, Hinton rejoint d’autres figures influentes du secteur (Sundar Pichai chez Google, Elon Musk chez X, Sam Altman chez OpenAI) qui ont exprimé des inquiétudes similaires sur les « risques profonds pour la société et l’humanité ». En 2023, Musk et plus de 1 000 experts ont signé une lettre ouverte demandant un moratoire sur le développement des IA les plus puissantes, estimant que la technologie peut « poser des risques profonds à la société et à l’humanité ». Il faut préciser que, tandis que Musk demandait à OpenAI de mettre un frein au développement de son IA, il travaillait de son côté sur un rival, le fameux xAI qui a donné naissance à Grok.
Quoiqu'il en soit, voici un extrait de cette lettre ouverte :
Les systèmes d'IA contemporains deviennent aujourd'hui compétitifs pour les tâches générales, et nous devons nous poser la question : Devons-nous laisser les machines inonder nos canaux d'information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus. Les systèmes d'IA puissants ne doivent être développés que lorsque nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables. Cette confiance doit être bien justifiée et augmenter avec l'ampleur des effets potentiels d'un système. La récente déclaration de l'OpenAI concernant l'intelligence artificielle générale indique qu'"à un moment donné, il pourrait être important d'obtenir un examen indépendant avant de commencer à former les futurs systèmes, et pour les efforts les plus avancés d'accepter de limiter le taux de croissance du calcul utilisé pour créer de nouveaux modèles". Nous sommes d'accord. C'est maintenant qu'il faut agir.
C'est pourquoi nous demandons à tous les laboratoires d'IA d'interrompre immédiatement, pendant au moins six mois, la formation de systèmes d'IA plus puissants que le GPT-4. Cette pause devrait être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut être mise en place rapidement, les gouvernements devraient intervenir et instituer un moratoire.
Les laboratoires d'IA et les experts indépendants devraient profiter de cette pause pour élaborer et mettre en œuvre conjointement un ensemble de protocoles de sécurité communs pour la conception et le développement de l'IA avancée, rigoureusement contrôlés et supervisés par des experts externes indépendants. Ces protocoles devraient garantir que les systèmes qui y adhèrent sont sûrs au-delà de tout doute raisonnable, ce qui ne signifie pas une pause dans le développement de l'IA en général, mais simplement un recul par rapport à la course dangereuse vers des modèles de boîte noire toujours plus grands et imprévisibles, dotés de capacités émergentes.
C'est pourquoi nous demandons à tous les laboratoires d'IA d'interrompre immédiatement, pendant au moins six mois, la formation de systèmes d'IA plus puissants que le GPT-4. Cette pause devrait être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut être mise en place rapidement, les gouvernements devraient intervenir et instituer un moratoire.
Les laboratoires d'IA et les experts indépendants devraient profiter de cette pause pour élaborer et mettre en œuvre conjointement un ensemble de protocoles de sécurité communs pour la conception et le développement de l'IA avancée, rigoureusement contrôlés et supervisés par des experts externes indépendants. Ces protocoles devraient garantir que les systèmes qui y adhèrent sont sûrs au-delà de tout doute raisonnable, ce qui ne signifie pas une pause dans le développement de l'IA en général, mais simplement un recul par rapport à la course dangereuse vers des modèles de boîte noire toujours plus grands et imprévisibles, dotés de capacités émergentes.
Pourquoi s’inquiéter de l’IA ?
Les arguments avancés par Hinton pour justifier ces craintes renvoient aux dérives théoriques et pratiques de l’IA. D’une part, le simple fait que les machines deviennent plus « intelligentes » que l’homme fait craindre une perte de contrôle : « Les choses plus intelligentes que vous sauront vous manipuler », prédit-il. D’autre part, les usages déjà observés soulignent des dangers concrets. On y inclut notamment la destruction massive d’emplois par automatisation, la propagation de deepfakes et de désinformation sophistiquée, ou encore une redoutable « course aux armements » entre États développant des systèmes autonomes létaux.
Hinton lui-même critique les géants du numérique : il leur reproche de favoriser la rapidité et le profit sur la sécurité, et exige qu’ils consacrent « comme un tiers » de leur capacité de calcul à la recherche en sécurité de l’IA, plutôt qu’une fraction marginale aujourd’hui. Hinton semble particulièrement déçu par Google, où il a travaillé auparavant, qui a changé de position sur les applications militaires de l'IA.
Selon Hinton, les entreprises d'IA devraient consacrer beaucoup plus de ressources à la recherche sur la sécurité - « environ un tiers » de leur puissance de calcul, par rapport à la fraction beaucoup plus faible qui leur est actuellement allouée.
Des garde-fous en place et des incertitudes
Ces mises en garde doivent cependant être mises en perspective....
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.