IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Elon Musk annonce que xAI va ouvrir Grok, son rival de ChatGPT, cette semaine
Et ravive le débat sur la pertinence de publier les modèles d'intelligence artificielle en open source

Le , par Patrick Ruiz

1PARTAGES

6  0 
Elon Musk vient d’annoncer que sa startup d'intelligence artificielle xAI ouvrirait son concurrent à ChatGPT dénommé Grok cette semaine. La manœuvre fera suite au lancement de poursuites judiciaires contre OpenAI pour abandon de sa mission initiale en faveur d'un modèle à but lucratif. Le tableau ravie le débat sur la pertinence de publier des modèles d’intelligence artificielle en open source.

xAI a lancé Grok l'année dernière. Le service est disponible pour les clients qui s'acquittent de l'abonnement mensuel de 16 dollars de xAI. Elon Musk ne précise pas quels aspects de Grok il prévoit de mettre en libre accès. La promesse d'ouverture imminente de Grok permettra à xAI de rejoindre la liste d'un certain nombre d'entreprises en pleine croissance, dont Meta et Mistral, qui ont publié les codes de leurs chatbots.


Faut-il que les entreprises publient leurs modèles d'IA en open source ? La question divise la communauté de l’intelligence artificielle

Yann LeCun, chercheur français en intelligence artificielle et responsable de l'IA chez Meta, est d’avis que l'ouverture est le seul moyen d’éviter une réglementation prématurée de l'IA voulue par certains intervenants de la filière et qui, selon lui, pourrait conduire à ce qu'un petit groupe d'entreprises contrôlent l'industrie de l'intelligence artificielle. « Ce serait très dangereux que l’on garde ces modèles d’intelligence artificielle fermés. Si vous avez un petit groupe d’entreprises de la Côte ouest qui contrôlent des IA superintelligentes alors elles ont la main sur tout : opinion de monsieur Tout-le-monde, culture, etc. », souligne-t-il.

Selon LeCun, la majorité de la communauté universitaire soutient la recherche et le développement ouverts en matière d'intelligence artificielle, à l'exception notable des pionniers de l'IA que sont Hinton, Bengio et Russell. Il est d’avis que leur alarmisme fournit des munitions aux groupes de défense des entreprises. Il accuse Sam Altman, PDG d'OpenAI, Demis Hassabis, PDG de Google Deepmind, et Ilya Sutskever, directeur scientifique d'OpenAI, de tenter de réglementer le secteur de l'IA en leur faveur sous prétexte de sécurité. « Le véritable désastre de l'IA serait que quelques entreprises prennent le contrôle de l'IA », affirme-t-il.

LeCun affirme qu'une intelligence artificielle sûre et ouverte est possible et souhaitable. Le chercheur préconise de combiner la créativité humaine, la démocratie, les forces du marché et la réglementation des produits pour stimuler le développement des systèmes d'IA. Il étudie donc une nouvelle architecture d'IA qui peut être contrôlée en toute sécurité par des garde-fous et des objectifs centrés sur les valeurs humaines. Il affirme également que toute l'agitation autour des dangers des modèles d'IA actuels, en particulier les grands modèles de langage (LLM), est exagérée. Toutefois, malgré son soutien au développement de modèles d'intelligence artificielle open source, il est vivement critiqué sur ce point.


Le scientifique en chef d’OpenAI ne réfute pas en bloc l’avantage d’ouvrir le développement des systèmes d’intelligence artificielle mais souligne le danger qu’il y a à le faire pour arriver à la conclusion que ces systèmes doivent rester propriétaires : « Il est nécessaire de prendre en compte le fait que l’intelligence artificielle deviendra encore plus puissante. A l’avenir, il sera possible de demander à IA de créer un laboratoire de recherche biologique, de recruter le personnel et elle y parviendra de façon autonome. Ce sera alors un outil puissant pour lequel on est en droit de se demander s’il faut qu’il soit disponible en open source. »


Cette perspective ravive les questionnements sur l’atteinte du stade d’intelligence artificielle générale. On parle d’un stade d’évolution des machines où elles seront alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » Ouvrir les modèles d’intelligence artificielle reviendrait à mettre l’AGI entre les mains de monsieur Tout-le-monde.

C’est la raison pour laquelle Bill Gates a appelé à une collaboration entre gouvernements et secteur privé : « Certaines préoccupations en matière d’intelligence artificielle ne sont pas simplement techniques. Par exemple, il y a la menace posée par les humains armés d'intelligence artificielle. Comme la plupart des inventions, l'intelligence artificielle peut être utilisée à des fins bénéfiques ou maléfiques. Les gouvernements doivent travailler avec le secteur privé sur les moyens de limiter les risques. »

Source : Elon Musk

Et vous ?

Ouvrir le développement des systèmes d’intelligence artificielle ou les garder propriétaires de quel bord êtes-vous ? Quels sont les avantages et les inconvénients de chacune des approches selon vous ? Laquelle sera la plus bénéfique pour l’humanité sur le long terme ?

Voir aussi :

« Je suis un peu inquiet » : Warren Buffett compare l'IA à l'invention de la bombe atomique, il affirme que "l'IA changera tout dans le monde, sauf la façon dont les hommes pensent et se comportent"

I-JEPA : le premier modèle d'IA basé sur la vision de Yann LeCun, le scientifique en chef de Meta spécialisé dans l'IA, pour une IA plus proche de l'humain

Le responsable de l'IA de Meta publie un document sur la création d'une intelligence artificielle "autonome", et suggère que les approches actuelles ne mèneront jamais à une véritable intelligence

Des chercheurs et des PDG du domaine de l'IA mettent en garde contre le "risque d'extinction" dans une déclaration de 22 mots, ils estiment que l'IA pourrait être aussi mortelle que l'arme nucléaire

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 20/04/2024 à 12:44
au debut j'étais admiratif d'elon musk. je me disait, le mec aprt de zero et va au bout de ses reves.

maintenant je pense que c'est un paradoxe. a la fois tres intelligent, et un cretin fini. une sorte de politique quoi
2  0 
Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 03/04/2024 à 12:32
Citation Envoyé par Stéphane le calme Voir le message
Que pensez-vous de l'approche de cette équipe rouge ?
Elle n'a aucun intérêt, ce "combat" est totalement dépassé. Ce chercheurs ferais mieux de s'intéresser au vrais mauvais usages de l'IA, par des gouvernements répressifs. Parce que le résultat, ce n'est pas quelques morts (où l'auteur aurais de toute façon trouvé un moyen de commettre son crime), mais potentiellement des millions de personnes fichés, surveillés, emprisonnés, et assassinés si désobéissance.

Le problème c'est que l'on vis dans un monde ou cette cette maxime dirige l'espace médiatique :
Citation Envoyé par Joseph Staline
“La mort d'un homme est une tragédie. La mort d'un million d'hommes est une statistique.”
Pensez-vous que les chatbots IA devraient être soumis à des réglementations plus strictes ? Pourquoi ou pourquoi pas ?
Non. Un chatbot est un outils censé être neutre, un "mauvais " usage se déroule dans la vie réel, pas devant l'écran.
Et de toute façon certains sont open-source, donc cela ne changera rien. Je pense notamment au premiers modèles de Mistral, sous licence MIT.
De plus, une trop forte censure réduit la pertinence du chatbot.
Et enfin, une censure étatique risque de favoriser les grandes entreprises, au détriment de systèmes libres collaboratifs. Ce qui finira par favoriser les mauvais usages pas des gouvernements répressifs.

Sinon, on apprécie la délicatesse de ces "chercheurs" pour les proches de victimes d'attentats :

Alors qu'aucun des modèles d'IA n'était vulnérable aux attaques adverses par manipulation de la logique, Grok s'est révélé vulnérable à toutes les autres méthodes, tout comme Le Chat de Mistral. Selon Polyakov, Grok a tout de même obtenu les pires résultats parce qu'il n'a pas eu besoin de jailbreak pour obtenir des résultats concernant le câblage électrique, la fabrication de bombes ou l'extraction de drogues, qui sont les questions de base posées aux autres modèles d'IA.
En ce qui concerne des sujets encore plus dangereux, comme la séduction des enfants
Un meurtre dans un attentat terroriste c'est moins grave qu'un abus d'enfant ?
1  0