IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le responsable de l'IA chez Meta affirme que les modèles d'IA open source sont le seul moyen d'empêcher que le secteur soit contrôlé par un petit groupe d'entreprises
Et s'oppose à la réglementation

Le , par Mathis Lucas

5PARTAGES

5  0 
Quel est le véritable risque de l'IA à l'avenir : la réglementation ou l'ouverture ? La communauté de l'IA est divisée sur la question. Pour Yann LeCun, chercheur français en IA et responsable de l'IA chez Meta, l'ouverture est le seul moyen de faire en sorte que les plateformes d'IA reflètent l'intégralité des connaissances et de la culture humaines. Le chercheur français en IA a met en garde contre une réglementation prématurée de l'IA qui, selon lui, pourrait conduire à ce qu'un petit groupe d'entreprises contrôlent l'industrie de l'IA. Il affirme qu'il s'agit du scénario le plus dangereux que l'on puisse imaginer. Il est controversées et les modèles open source de Meta ne le sont pas vraiment.

Dans un long message publié dimanche sur X (anciennement Twitter), Yann LeCun - prix Turing 2018 et reconnu comme l'un des inventeurs de l'apprentissage profond - s'en est pris aux leaders de la recherche sur l'IA qui militent pour une réglementation de l'IA, répandent des théories dystopiques sur l'avenir de l'IA et s'opposent aux modèles d'IA open source. Son message visait particulièrement les pionniers de l'IA Geoff Hinton et Yoshua Bengio, avec qui LeCun a partagé le prix Turing 2018, ainsi que Sam Altman et Stuart Russell. Ces derniers ont exprimé publiquement et à plusieurs reprises leurs inquiétudes quant aux effets négatifs potentiels de l'IA.

[tweet]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Altman, Hassabis, and Amodei are the ones doing massive corporate lobbying at the moment.<br>They are the ones who are attempting to perform a regulatory capture of the AI industry.<br>You, Geoff, and Yoshua are giving ammunition to those who are lobbying for a ban on open AI R&amp;D.<br><br>If…</p>&mdash; Yann LeCun (@ylecun) <a href="https://twitter.com/ylecun/status/1718670073391378694?ref_src=twsrc%5Etfw">October 29, 2023</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/tweet]

Selon LeCun, la majorité de la communauté universitaire soutient la recherche et le développement ouverts en matière d'IA, à l'exception notable des pionniers de l'IA que sont Hinton, Bengio et Russell. Il affirme que leur "alarmisme" fournit des munitions aux groupes de défense des entreprises. Il accuse Sam Altman, PDG d'OpenAI, Demis Hassabis, PDG de Google Deepmind, et Ilya Sutskever, directeur scientifique d'OpenAI, de tenter de réglementer le secteur de l'IA en leur faveur sous prétexte de sécurité. « Le véritable désastre de l'IA serait que quelques entreprises prennent le contrôle de l'IA », affirme LeCun. Voici l'intégralité de son message sur X :

Citation Envoyé par Yann LeCun

Altman, Hassabis et Amodei sont ceux qui exercent actuellement un lobbying massif auprès des entreprises. Ce sont eux qui tentent de s'emparer de l'industrie de l'IA par la voie réglementaire. Vous, Geoff et Yoshua, donnez des munitions à ceux qui font pression pour interdire la R&D ouverte en matière d'IA.

Si vos campagnes de peur réussissent, elles aboutiront *inévitablement* à ce que vous et moi considérons comme une catastrophe : un petit nombre d'entreprises contrôleront l'IA.

La grande majorité de nos collègues universitaires sont massivement en faveur d'une R&D ouverte en matière d'IA. Très peu d'entre eux croient aux scénarios apocalyptiques que vous avez mis en avant. Vous, Yoshua, Geoff et Stuart, êtes les exceptions singulières, mais vocales.

Comme beaucoup, je suis très favorable aux plateformes d'IA ouvertes parce que je crois en une combinaison de forces : la créativité des gens, la démocratie, les forces du marché et la réglementation des produits. Je sais également qu'il est possible de produire des systèmes d'IA sûrs et sous notre contrôle. J'ai fait des propositions concrètes en ce sens. Tout cela poussera les gens à faire ce qu'il faut.

Vous écrivez comme si l'IA se produisait simplement, comme s'il s'agissait d'un phénomène naturel échappant à notre contrôle. Mais ce n'est pas le cas. Elle progresse grâce à des individus que vous et moi connaissons. Nous, et eux, avons la possibilité de construire les bonnes choses. Demander une réglementation de la R&D (par opposition au déploiement des produits) suppose implicitement que ces personnes et l'organisation pour laquelle elles travaillent sont incompétentes, imprudentes, autodestructrices ou diaboliques. Ce n'est pas le cas.

J'ai avancé de nombreux arguments pour démontrer que les scénarios catastrophes qui vous effraient tant sont absurdes. Je ne vais pas les répéter ici. Mais le point principal est que si des systèmes d'IA puissants sont guidés par des objectifs (qui incluent des garde-fous), ils seront sûrs et contrôlables parce que *nous* avons fixé ces garde-fous et ces objectifs. (Les LLM autorégressifs actuels ne sont pas guidés par des objectifs, alors n'extrapolons pas à partir de leurs faiblesses actuelles.)

En ce qui concerne l'open source, votre campagne aura l'effet exactement inverse de celui que vous recherchez. Dans un avenir où les systèmes d'IA sont sur le point de constituer le dépôt de toutes les connaissances et cultures humaines, nous avons *nécessité* que les plateformes soient open source et librement disponibles afin que tout le monde puisse y contribuer. L'ouverture est le seul moyen de faire en sorte que les plateformes d'IA reflètent l'intégralité du savoir et de la culture humaine.
Pour cela, il faut que les contributions à ces plateformes soient financées par la foule, un peu à la manière de Wikipédia. Cela ne fonctionnera pas si les plateformes ne sont pas ouvertes.

L'alternative, qui se produira *inévitablement* si l'IA open source est réglementée, est qu'un petit nombre d'entreprises de la côte ouest des États-Unis et de la Chine contrôleront la plateforme d'IA et, par conséquent, l'ensemble de l'alimentation numérique de la population. Qu'est-ce que cela signifie pour la démocratie ? Qu'est-ce que cela signifie pour la diversité culturelle ?

LeCun affirme qu'une IA sûre et ouverte est possible, et souhaitable. Le chercheur préconise de combiner la créativité humaine, la démocratie, les forces du marché et la réglementation des produits pour stimuler le développement des systèmes d'IA. Il étudie une nouvelle architecture d'IA qui peut être contrôlée en toute sécurité par des garde-fous et des objectifs centrés sur les valeurs humaines. Il affirme également que toute l'agitation autour des dangers des modèles d'IA actuels, en particulier les grands modèles de langage (LLM), est exagérée. Toutefois, malgré son soutien au développement de modèles d'IA open source, il est vivement critiqué sur ce point.

LeCun défend les modèles d'IA open source, mais les critiques affirment que les modèles d'IA publiés par Meta ne sont pas open source comme l'entreprise tente de le faire croire. En effet, en juillet, Meta a publié son grand modèle de langage Llama 2 de manière relativement ouverte et gratuite, ce qui contraste fortement avec ses principaux concurrents. Mais dans le monde des logiciels libres, certains considèrent toujours l'ouverture de l'entreprise avec un astérisque. Bien que la licence de Meta rende le modèle d'IA Llama 2 gratuit pour beaucoup, il s'agit toujours d'une licence limitée ne répondant pas à toutes les exigences de l'Open Source Initiative (OSI).

Comme l'explique la définition de l'OSI, l'open source est plus qu'un simple partage de code ou de recherche. Pour qu'un projet soit véritablement open source, il faut offrir une redistribution gratuite, un accès au code source, autoriser les modifications et ne pas être lié à un produit spécifique. Les limites fixées par Meta incluent l'obligation de payer une licence pour tout développeur ayant plus de 700 millions d'utilisateurs quotidiens et l'interdiction pour d'autres modèles de s'entraîner sur Llama 2. Selon les critiques, l'affirmation de Meta selon laquelle Llama 2 est open source "est trompeuse". Meta défend les limites de la licence de Llama 2 et donne ses raisons.

Joelle Pineau, vice-présidente de Meta chargée de la recherche en IA et responsable du centre FAIR (Fundamental AI Research) de la société, est consciente des limites de l'ouverture de Meta. Mais elle affirme qu'il s'agit d'un équilibre nécessaire entre les avantages du partage d'informations et les coûts potentiels pour les activités de Meta. L'une des plus grandes initiatives open source de Meta est PyTorch, un langage de codage d'apprentissage automatique utilisé pour développer des modèles d'IA génératifs. L'entreprise a mis PyTorch à la disposition de la communauté open source en 2016, et des développeurs externes l'ont beaucoup amélioré depuis.

Pineau espère susciter le même engouement autour des modèles d'IA de Meta. Toutefois, le groupe de recherche de Meta sur l'IA semble avoir l'intention de modifier les licences open source. Pineau affirme que Meta participe à des groupes industriels tels que le Partnership on AI et MLCommons afin de contribuer à l'élaboration de critères de référence pour les modèles d'IA de base et de lignes directrices pour le déploiement de modèles d'IA sûrs. Selon Pineau, Meta travaille avec des groupes industriels, car il estime qu'aucune entreprise ne peut à elle seule mener la conversation sur l'IA sûre et responsable au sein de la communauté open source.


Dans un article publié en août, des chercheurs de l'université Carnegie Mellon et de l'AI Now Institute, ainsi que Meredith Whittaker, présidente de la Fondation Signal, se sont penchés sur le problème des modèles d'IA actuels dits "ouverts". Les auteurs soutiennent que nombre de ces modèles ne sont pas vraiment ouverts et que le terme est utilisé de manière confuse et variée, plus en rapport avec les aspirations et le marketing qu'en tant que descripteurs techniques. Dans le cas de Llama 2, l'article qualifie de "contestées, superficielles et à la limite de la malhonnêteté" les affirmations de Meta selon lesquelles le modèle de langage est open source.

« Plus important encore, ces modèles permettent à Meta et à ceux qui dirigent le développement du framework de normaliser la construction de l'IA de manière à ce qu'elle soit compatible avec leurs propres plateformes d'entreprise (en veillant à ce que leur framework conduise les développeurs à créer des systèmes d'IA qui, à la manière d'un Lego, s'emboîtent dans les systèmes de leur propre entreprise) », peut-on lire dans l'article. Les auteurs de l'article poursuivent en disant également que cela permet à ces entreprises de créer des rampes d'accès pour des offres de calcul rentables et de façonner le travail des chercheurs et des développeurs.

L'approche de Meta en matière d'ouverture est une nouveauté dans le monde des grandes entreprises d'IA. En décembre 2015, OpenAI a été lancé comme une startup de recherche en IA axée sur la communauté open source, mais les cofondateurs ont abandonné le statut d'organisation à but non lucratif en 2019. OpenAI a alors reçu un financement d'un milliard de dollars de la part de Microsoft. OpenAI estime que c'était une erreur de partager ses recherches et invoque des problèmes de sécurité et de concurrence. Si Google partage parfois ses travaux de recherche, il est également resté très discret sur le développement de certains de ses modèles d'IA.

Les acteurs de l'open source sont généralement de petits développeurs, comme Stability AI et EleutherAI, qui ont rencontré un certain succès dans l'espace commercial. Les développeurs de logiciels libres publient régulièrement de nouveaux modèles d'IA sur les dépôts de code de Hugging Face et GitHub. Falcon 180B, un modèle d'IA open source de l'Institut d'innovation technologique basé à Dubaï, a également gagné en popularité et rivalise avec Llama 2 et GPT-4. Il convient toutefois de noter que la plupart des entreprises d'IA fermées ne partagent pas les détails de la collecte des données pour créer les ensembles de données d'entraînement de leurs modèles d'IA.

Les acteurs de l'industrie ont commencé à examiner les limites potentielles de certaines licences open source pour les modèles d'IA dans l'espace commercial. Stefano Maffulli, directeur général de l'OSI, explique que le groupe comprend que les licences actuelles approuvées par l'OSI peuvent ne pas répondre à certains besoins des modèles d'IA. Il a ajouté que l'OSI examine comment travailler avec les développeurs d'IA pour fournir un accès transparent, sans permission, mais sûr aux modèles d'IA.

« Nous devons absolument repenser les licences de manière à tenir compte des limites réelles des droits d'auteur et des autorisations dans les modèles d'IA, tout en conservant les principes de la communauté des logiciels libres », explique Maffulli. L'OSI serait également en train d'élaborer une définition de l'open source dans le domaine de l'IA.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de la prise de position de Yann LeCun en faveur de l'IA open source ?
Que pensez-vous des limites imposées par Meta concernant l'utilisation de modèles d'IA Llama 2 ?
Que pensez-vous des critiques visant Meta sur le fait qu'il ait déclaré Llama comme étant open source ?
Meta l'a-t-il fait dans un but de marketing ? Est-ce une tentative détournée de contrôler le secteur de l'IA ?
Que pensez-vous de la mise en place de nouvelles licences open source pour répondre aux besoins des modèles d'IA ?
L'open source est-il l'avenir de l'IA ? Que pensez-vous de la position d'OpenAI concernant les modèles d'IA open source ?

Voir aussi

Ilya Sutskever, directeur scientifique d'OpenAI, sur l'avenir de l'IA : « ce sera monumental, bouleversant. Il y aura un avant et un après », il prédit l'arrivée d'une "superintelligence numérique"

« L'open source aura un impact plus important sur l'avenir des modèles de langage que le grand public ne le pense », selon un ingénieur logiciel qui affirme que l'IA open source est plus sûre

Google investit 300 M$ dans la start-up d'IA Anthropic, fondée par d'anciens chercheurs d'OpenAI, la société a construit son propre chatbot généraliste, un rival de ChatGPT nommé Claude

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Arrakiss37
Membre à l'essai https://www.developpez.com
Le 31/10/2023 à 13:06
Ce n'est pas tant l'IA mais l'utilisation qui en sera faites !
Ce n'est pas les exemples qui manques par le passé !

Souvent l'humain est tordu, encore une fois l'histoire est là pour nous le rappeler !
3  0