Hinton a admis qu'il ne savait même pas qu'il avait été nommé pour le prix Nobel et a d'abord remercié ses deux principaux collaborateurs, Terry Sejnowski et le défunt David Rumelhart, qu'il considère comme des « mentors ». Il a ensuite souligné le travail remarquable de ses étudiants à l'université de Toronto, en notant avec fierté qu'un d'eux avait licencié Sam Altman, ajoutant qu'il valait mieux ne pas en dire plus.
Le licenciement d'Altman par OpenAI à la fin de 2023 a été motivé par des accusations de mensonge au conseil d'administration sur divers aspects de l'entreprise, tels que les coûts et les risques associés à ChatGPT. Mira Murati, directrice de la technologie, a été désignée PDG par intérim. Le conseil a affirmé ne plus avoir confiance en Altman, dénonçant un manque de transparence dans ses communications. Altman, qui avait précédemment rejeté une offre d'Elon Musk pour reprendre l'organisation, avait su manipuler les perceptions pour attirer des investisseurs. Toutefois, certains membres du conseil estimaient qu'Altman n'assurait pas la sécurité de l'IA, une mission essentielle d'OpenAI, et réclamaient un leadership plus responsable à mesure que l'IA devenait potentiellement risquée. Malgré ces tensions, Altman a été réintégré peu après son éviction.
Hinton et Sutskever avaient collaboré avec Alex Krizhevsky en 2012 pour créer « AlexNet », un algorithme révolutionnaire en IA. Hinton, reconnu comme un pionnier de ce domaine, a également salué les travaux de ses collègues, Yoshua Bengio et Yann LeCun, tout en se moquant de lui-même, avouant avoir abandonné la physique à cause de son malaise avec les mathématiques. L'annonce de son prix arrive peu avant le premier anniversaire du licenciement d'Altman et le deuxième anniversaire de ChatGPT, un chatbot qui a éveillé l'intérêt du grand public pour les risques de l'IA.
Hinton a averti que l'intelligence artificielle pourrait surpasser l'intelligence humaine d'ici 20 ans, ce qui nécessite une réflexion approfondie sur les implications éthiques. Altman, figure controversée, est accusé par certains de privilégier le profit au détriment de la sécurité, générant des tensions au sein d'OpenAI. Interrogé sur ses critiques d'Altman, Hinton a souligné que ce dernier semblait davantage préoccupé par les bénéfices que par la sécurité, ce qu'il considère comme regrettable. Hinton appelle donc à des recherches urgentes sur la sécurité de l'IA.
Le lendemain de son licenciement, Brad Lightcap, directeur des opérations d'OpenAI, a informé l'entreprise que « la décision du conseil d'administration n'était pas liée à des malversations ou à des problèmes financiers ». Il a précisé qu'il s'agissait d'une rupture de communication entre Sam et le conseil. Cependant, lorsque des exemples concrets de manque de franchise d'Altman ont été demandés, les membres du conseil ont gardé le silence.
Au sein de Microsoft, cet épisode a été jugé incroyablement absurde. À ce stade, OpenAI valait environ quatre-vingts milliards de dollars. Un dirigeant a déclaré : « À moins que le conseil d'administration ne cherche à détruire l'entreprise, il semblait déterminé à faire les pires choix possibles à chaque décision. » Même si d'autres employés d'OpenAI, comme Greg Brockman, ont démissionné publiquement, le conseil d'administration est resté silencieux.
L'ironie d'un prix Nobel dans un monde d'ego et de rivalités
La déclaration de Geoffrey Hinton sur le licenciement de Sam Altman soulève des questions critiques sur l'éthique et la gouvernance dans le domaine de l'intelligence artificielle. En exprimant sa fierté concernant le licenciement d'Altman, Hinton met en lumière des préoccupations profondes sur la sécurité de l'IA et la priorité accordée aux profits. Son avertissement sur la possibilité que l'IA dépasse l'intelligence humaine dans les deux prochaines décennies souligne la nécessité d'un dialogue urgent sur les implications éthiques de cette technologie.
Cependant, la manière dont Hinton aborde la situation peut sembler ambivalente. D'une part, il critique Altman pour son manque de transparence, mais d'autre part, il semble se réjouir de la situation sans suffisamment questionner les motivations du conseil d'administration d'OpenAI. Cela donne l'impression qu'il privilégie les rivalités internes au lieu de rechercher des solutions constructives.
De plus, le soutien de Hinton à Sutskever, qui a joué un rôle déterminant dans le licenciement d'Altman, soulève des interrogations sur les dynamiques de pouvoir au sein d'OpenAI et leur influence sur l'orientation de l'IA. Bien que Hinton appelle à des recherches urgentes sur la sécurité de l'IA, il est essentiel que cette recherche soit accompagnée d'une gouvernance éclairée, plaçant la sécurité et l'éthique au cœur des décisions stratégiques.
Bien que Hinton soulève des points valides sur les enjeux de sécurité de l'IA, son intervention devrait également inciter à une discussion plus large sur la responsabilité éthique des leaders technologiques dans un domaine aussi sensible.
Source : University of Toronto Press Conference - Professor Geoffrey Hinton, Nobel Prize in Physics 2024
Et vous ?
Geoffrey Hinton critique-t-il réellement la priorité donnée aux profits par Altman, ou sa fierté semble-t-elle masquer des rivalités personnelles ?
La réaction de Hinton face à cet événement est-elle représentative d'un consensus plus large parmi les chercheurs en IA sur la direction future de la technologie ?
Voir aussi :
OpenAI licencie le co-fondateur et PDG Sam Altman, l'accusant d'avoir menti au conseil d'administration de l'entreprise. Viré du conseil, le co-fondateur Greg Brockman a préféré démissionner
Sam Altman reconnaît qu'OpenAI ne comprend pas entièrement le fonctionnement du GPT derrière ChatGPT malgré des progrès rapides, mais estime que ce n'est pas nécessaire pour publier de nouvelles versions