IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Faut-il que les entreprises publient leurs modèles d'IA en open source ? Oui, selon Yann Lecun de Meta
Opposé aux avis selon lesquels ce serait fournir de puissantes armes à des criminels

Le , par Patrick Ruiz

4PARTAGES

5  0 
Au début de l'année, l'entreprise spécialisée en cybersécurité CheckPoint a noté que ChatGPT peut générer le code d’un logiciel malveillant capable de voler des fichiers précis sur un PC, de les compresser et de les envoyer sur un ordinateur distant. L'IA d'OpenAI pouvait également produire du code pour un outil logiciel qui installe une porte dérobée sur un ordinateur et ensuite télécharge d’autres logiciels malveillants à partir de cette dernière. La firme a rapporté en sus que les cybercriminels peuvent s’en servir pour la mise sur pied de logiciels capables de chiffrer les fichiers du PC d’une cible. CheckPoint a même souligné que ChatGPT ouvrait ces possibilités à des individus avec de très faibles connaissances techniques. Le tableau qui n’est que l’ombre des choses à venir compte tenu des avancées en matière d’intelligence artificielle alimente un débat dans la filière : faut-il que les entreprises publient leurs modèles d’IA en open source ? Les avis divergent sur la question.

Yann Lecun, chercheur français en IA, vainqueur du prix Turing 2018 et responsable de l’intelligence artificielle chez Meta, est d’avis que les entreprises doivent ouvrir leurs modèles et s’explique

Yann LeCun, chercheur français en intelligence artificielle et responsable de l'IA chez Meta, est d’avis que l'ouverture est le seul moyen d’éviter une réglementation prématurée de l'IA voulue par certains intervenants de la filière et qui, selon lui, pourrait conduire à ce qu'un petit groupe d'entreprises contrôlent l'industrie de l'intelligence artificielle. « Ce serait très dangereux que l’on garde ces modèles d’intelligence artificielle fermés. Si vous avez un petit groupe d’entreprises de la Côte ouest qui contrôlent des IA superintelligentes alors elles ont la main sur tout : opinion de monsieur Tout-le-monde, culture, etc. », souligne-t-il.


Selon LeCun, la majorité de la communauté universitaire soutient la recherche et le développement ouverts en matière d'intelligence artificielle, à l'exception notable des pionniers de l'IA que sont Hinton, Bengio et Russell. Il est d’avis que leur alarmisme fournit des munitions aux groupes de défense des entreprises. Il accuse Sam Altman, PDG d'OpenAI, Demis Hassabis, PDG de Google Deepmind, et Ilya Sutskever, directeur scientifique d'OpenAI, de tenter de réglementer le secteur de l'IA en leur faveur sous prétexte de sécurité. « Le véritable désastre de l'IA serait que quelques entreprises prennent le contrôle de l'IA », affirme-t-il.

LeCun affirme qu'une intelligence artificielle sûre et ouverte est possible et souhaitable. Le chercheur préconise de combiner la créativité humaine, la démocratie, les forces du marché et la réglementation des produits pour stimuler le développement des systèmes d'IA. Il étudie donc une nouvelle architecture d'IA qui peut être contrôlée en toute sécurité par des garde-fous et des objectifs centrés sur les valeurs humaines. Il affirme également que toute l'agitation autour des dangers des modèles d'IA actuels, en particulier les grands modèles de langage (LLM), est exagérée. Toutefois, malgré son soutien au développement de modèles d'intelligence artificielle open source, il est vivement critiqué sur ce point.


Le scientifique en chef d’OpenAI ne réfute pas en bloc l’avantage d’ouvrir le développement des systèmes d’intelligence artificielle mais souligne le danger qu’il y a à le faire pour arriver à la conclusion que ces systèmes doivent rester propriétaires

« Il est nécessaire de prendre en compte le fait que l’intelligence artificielle deviendra encore plus puissante. A l’avenir, il sera possible de demander à IA de créer un laboratoire de recherche biologique, de recruter le personnel et elle y parviendra de façon autonome. Ce sera alors un outil puissant pour lequel on est en droit de se demander s’il faut qu’il soit disponible en open source », indique-t-il.


Cette perspective ravive les questionnements sur l’atteinte du stade d’intelligence artificielle générale. On parle d’un stade d’évolution des machines où elles seront alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » Ouvrir les modèles d’intelligence artificielle reviendrait à mettre l’AGI entre les mains de monsieur Tout-le-monde.

C’est la raison pour laquelle Bill Gates a appelé à une collaboration entre gouvernements et secteur privé : « Certaines préoccupations en matière d’intelligence artificielle ne sont pas simplement techniques. Par exemple, il y a la menace posée par les humains armés d'intelligence artificielle. Comme la plupart des inventions, l'intelligence artificielle peut être utilisée à des fins bénéfiques ou maléfiques. Les gouvernements doivent travailler avec le secteur privé sur les moyens de limiter les risques. »

Sources : vidéos dans le texte

Et vous ?

Ouvrir le développement des systèmes d’intelligence artificielle ou les garder propriétaires de quel bord êtes-vous ? Quels sont les avantages et les inconvénients de chacune des approches selon vous ? Laquelle sera la plus bénéfique pour l’humanité sur le long terme ?

Voir aussi :

« Je suis un peu inquiet » : Warren Buffett compare l'IA à l'invention de la bombe atomique, il affirme que "l'IA changera tout dans le monde, sauf la façon dont les hommes pensent et se comportent"

I-JEPA : le premier modèle d'IA basé sur la vision de Yann LeCun, le scientifique en chef de Meta spécialisé dans l'IA, pour une IA plus proche de l'humain

Le responsable de l'IA de Meta publie un document sur la création d'une intelligence artificielle "autonome", et suggère que les approches actuelles ne mèneront jamais à une véritable intelligence

Des chercheurs et des PDG du domaine de l'IA mettent en garde contre le "risque d'extinction" dans une déclaration de 22 mots, ils estiment que l'IA pourrait être aussi mortelle que l'arme nucléaire

Une erreur dans cette actualité ? Signalez-nous-la !