xAI a lancé Grok l'année dernière. Le service est disponible pour les clients qui s'acquittent de l'abonnement mensuel de 16 dollars de xAI. Elon Musk ne précise pas quels aspects de Grok il prévoit de mettre en libre accès. La promesse d'ouverture imminente de Grok permettra à xAI de rejoindre la liste d'un certain nombre d'entreprises en pleine croissance, dont Meta et Mistral, qui ont publié les codes de leurs chatbots.
Faut-il que les entreprises publient leurs modèles d'IA en open source ? La question divise la communauté de l’intelligence artificielle
Yann LeCun, chercheur français en intelligence artificielle et responsable de l'IA chez Meta, est d’avis que l'ouverture est le seul moyen d’éviter une réglementation prématurée de l'IA voulue par certains intervenants de la filière et qui, selon lui, pourrait conduire à ce qu'un petit groupe d'entreprises contrôlent l'industrie de l'intelligence artificielle. « Ce serait très dangereux que l’on garde ces modèles d’intelligence artificielle fermés. Si vous avez un petit groupe d’entreprises de la Côte ouest qui contrôlent des IA superintelligentes alors elles ont la main sur tout : opinion de monsieur Tout-le-monde, culture, etc. », souligne-t-il.
Selon LeCun, la majorité de la communauté universitaire soutient la recherche et le développement ouverts en matière d'intelligence artificielle, à l'exception notable des pionniers de l'IA que sont Hinton, Bengio et Russell. Il est d’avis que leur alarmisme fournit des munitions aux groupes de défense des entreprises. Il accuse Sam Altman, PDG d'OpenAI, Demis Hassabis, PDG de Google Deepmind, et Ilya Sutskever, directeur scientifique d'OpenAI, de tenter de réglementer le secteur de l'IA en leur faveur sous prétexte de sécurité. « Le véritable désastre de l'IA serait que quelques entreprises prennent le contrôle de l'IA », affirme-t-il.
LeCun affirme qu'une intelligence artificielle sûre et ouverte est possible et souhaitable. Le chercheur préconise de combiner la créativité humaine, la démocratie, les forces du marché et la réglementation des produits pour stimuler le développement des systèmes d'IA. Il étudie donc une nouvelle architecture d'IA qui peut être contrôlée en toute sécurité par des garde-fous et des objectifs centrés sur les valeurs humaines. Il affirme également que toute l'agitation autour des dangers des modèles d'IA actuels, en particulier les grands modèles de langage (LLM), est exagérée. Toutefois, malgré son soutien au développement de modèles d'intelligence artificielle open source, il est vivement critiqué sur ce point.
Le scientifique en chef d’OpenAI ne réfute pas en bloc l’avantage d’ouvrir le développement des systèmes d’intelligence artificielle mais souligne le danger qu’il y a à le faire pour arriver à la conclusion que ces systèmes doivent rester propriétaires : « Il est nécessaire de prendre en compte le fait que l’intelligence artificielle deviendra encore plus puissante. A l’avenir, il sera possible de demander à IA de créer un laboratoire de recherche biologique, de recruter le personnel et elle y parviendra de façon autonome. Ce sera alors un outil puissant pour lequel on est en droit de se demander s’il faut qu’il soit disponible en open source. »
Cette perspective ravive les questionnements sur l’atteinte du stade d’intelligence artificielle générale. On parle d’un stade d’évolution des machines où elles seront alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » Ouvrir les modèles d’intelligence artificielle reviendrait à mettre l’AGI entre les mains de monsieur Tout-le-monde.
C’est la raison pour laquelle Bill Gates a appelé à une collaboration entre gouvernements et secteur privé : « Certaines préoccupations en matière d’intelligence artificielle ne sont pas simplement techniques. Par exemple, il y a la menace posée par les humains armés d'intelligence artificielle. Comme la plupart des inventions, l'intelligence artificielle peut être utilisée à des fins bénéfiques ou maléfiques. Les gouvernements doivent travailler avec le secteur privé sur les moyens de limiter les risques. »
Source : Elon Musk
Et vous ?
Ouvrir le développement des systèmes d’intelligence artificielle ou les garder propriétaires de quel bord êtes-vous ? Quels sont les avantages et les inconvénients de chacune des approches selon vous ? Laquelle sera la plus bénéfique pour l’humanité sur le long terme ?
Voir aussi :
« Je suis un peu inquiet » : Warren Buffett compare l'IA à l'invention de la bombe atomique, il affirme que "l'IA changera tout dans le monde, sauf la façon dont les hommes pensent et se comportent"
I-JEPA : le premier modèle d'IA basé sur la vision de Yann LeCun, le scientifique en chef de Meta spécialisé dans l'IA, pour une IA plus proche de l'humain
Le responsable de l'IA de Meta publie un document sur la création d'une intelligence artificielle "autonome", et suggère que les approches actuelles ne mèneront jamais à une véritable intelligence
Des chercheurs et des PDG du domaine de l'IA mettent en garde contre le "risque d'extinction" dans une déclaration de 22 mots, ils estiment que l'IA pourrait être aussi mortelle que l'arme nucléaire