
Dans un long message publié dimanche sur X (anciennement Twitter), Yann LeCun - prix Turing 2018 et reconnu comme l'un des inventeurs de l'apprentissage profond - s'en est pris aux leaders de la recherche sur l'IA qui militent pour une réglementation de l'IA, répandent des théories dystopiques sur l'avenir de l'IA et s'opposent aux modèles d'IA open source. Son message visait particulièrement les pionniers de l'IA Geoff Hinton et Yoshua Bengio, avec qui LeCun a partagé le prix Turing 2018, ainsi que Sam Altman et Stuart Russell. Ces derniers ont exprimé publiquement et à plusieurs reprises leurs inquiétudes quant aux effets négatifs potentiels de l'IA.
Altman, Hassabis, and Amodei are the ones doing massive corporate lobbying at the moment.
— Yann LeCun (@ylecun) October 29, 2023
They are the ones who are attempting to perform a regulatory capture of the AI industry.
You, Geoff, and Yoshua are giving ammunition to those who are lobbying for a ban on open AI R&D.
If…
Selon LeCun, la majorité de la communauté universitaire soutient la recherche et le développement ouverts en matière d'IA, à l'exception notable des pionniers de l'IA que sont Hinton, Bengio et Russell. Il affirme que leur "alarmisme" fournit des munitions aux groupes de défense des entreprises. Il accuse Sam Altman, PDG d'OpenAI, Demis Hassabis, PDG de Google Deepmind, et Ilya Sutskever, directeur scientifique d'OpenAI, de tenter de réglementer le secteur de l'IA en leur faveur sous prétexte de sécurité. « Le véritable désastre de l'IA serait que quelques entreprises prennent le contrôle de l'IA », affirme LeCun. Voici l'intégralité de son message sur X :

LeCun défend les modèles d'IA open source, mais les critiques affirment que les modèles d'IA publiés par Meta ne sont pas open source comme l'entreprise tente de le faire croire. En effet, en juillet, Meta a publié son grand modèle de langage Llama 2 de manière relativement ouverte et gratuite, ce qui contraste fortement avec ses principaux concurrents. Mais dans le monde des logiciels libres, certains considèrent toujours l'ouverture de l'entreprise avec un astérisque. Bien que la licence de Meta rende le modèle d'IA Llama 2 gratuit pour beaucoup, il s'agit toujours d'une licence limitée ne répondant pas à toutes les exigences de l'Open Source Initiative (OSI).
Comme l'explique la définition de l'OSI, l'open source est plus qu'un simple partage de code ou de recherche. Pour qu'un projet soit véritablement open source, il faut offrir une redistribution gratuite, un accès au code source, autoriser les modifications et ne pas être lié à un produit spécifique. Les limites fixées par Meta incluent l'obligation de payer une licence pour tout développeur ayant plus de 700 millions d'utilisateurs quotidiens et l'interdiction pour d'autres modèles de s'entraîner sur Llama 2. Selon les critiques, l'affirmation de Meta selon laquelle Llama 2 est open source "est trompeuse". Meta défend les limites de la licence de Llama 2 et donne ses raisons.
Joelle Pineau, vice-présidente de Meta chargée de la recherche en IA et responsable du centre FAIR (Fundamental AI Research) de la société, est consciente des limites de l'ouverture de Meta. Mais elle affirme qu'il s'agit d'un équilibre nécessaire entre les avantages du partage d'informations et les coûts potentiels pour les activités de Meta. L'une des plus grandes initiatives open source de Meta est PyTorch, un langage de codage d'apprentissage automatique utilisé pour développer des modèles d'IA génératifs. L'entreprise a mis PyTorch à la disposition de la communauté open source en 2016, et des développeurs externes l'ont beaucoup amélioré depuis.
Pineau espère susciter le même engouement autour des modèles d'IA de Meta. Toutefois, le groupe de recherche de Meta sur l'IA semble avoir l'intention de modifier les licences open source. Pineau affirme que Meta participe à des groupes industriels tels que le Partnership on AI et MLCommons afin de contribuer à l'élaboration de critères de référence pour les modèles d'IA de base et de lignes directrices pour le déploiement de modèles d'IA sûrs. Selon Pineau, Meta travaille avec des groupes industriels, car il estime qu'aucune entreprise ne peut à elle seule mener la conversation sur l'IA sûre et responsable au sein de la communauté open source.
Dans un article publié en août, des chercheurs de l'université Carnegie Mellon et de l'AI Now Institute, ainsi que Meredith Whittaker, présidente de la Fondation Signal, se sont penchés sur le problème des modèles d'IA actuels dits "ouverts". Les auteurs soutiennent que nombre de ces modèles ne sont pas vraiment ouverts et que le terme est utilisé de manière confuse et variée, plus en rapport avec les aspirations et le marketing qu'en tant que descripteurs techniques. Dans le cas de Llama 2, l'article qualifie de "contestées, superficielles et à la limite de la malhonnêteté" les affirmations de Meta selon lesquelles le modèle de langage est open source.
« Plus important encore, ces mod...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.