IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Elon Musk publie le code source de son chatbot d'IA Grok dans le cadre de la dernière escalade de la guerre de l'IA,
Il est publié sous la licence Apache 2.0 qui autorise l'utilisation commerciale

Le , par Mathis Lucas

7PARTAGES

2  0 
La startup xAI d'Elon Musk a publié en open source son grand modèle de langage (LLM) Grok. Cela signifie que les chercheurs et les développeurs peuvent maintenant s'appuyer sur Grok et influer sur la manière dont xAI mettra à jour le modèle d'IA à l'avenir. Ils pourront utiliser gratuitement les capacités de Grok dans leurs propres projets. La version open source de Grok n'inclut pas l'accès aux données du réseau social X. La publication de Grok intervient dans le cadre de la guerre d'Elon Musk contre les modèles d'IA commerciaux d'OpenAI. Il accuse OpenAI d'avoir rompu ses promesses initiales et de s'être transformée en une entreprise avide de pouvoir.

Elon Musk a annoncé au début du mois que xAI publierait en accès libre son modèle Grok, et une version ouverte est désormais disponible sur GitHub. C'est désormais chose faite. xAI a annoncé la disponibilité d'une version open source comprenant les ressources du modèle de base et l'architecture du réseau du modèle Mixture-of-Experts de 314 milliards de paramètres, Grok-1. Elle a ajouté que le modèle provient d'un point de contrôle effectué en octobre dernier et qu'il n'a pas fait l'objet d'une mise au point pour une application spécifique. La société a publié un référentiel GitHub de 318,24 Go sous licence Apache 2.0.

[tweet]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">&#9617;W&#9617;E&#9617;I&#9617;G&#9617;H&#9617;T&#9617;S&#9617;I&#9617;N&#9617;B&#9617;I&#9617;O&#9617;</p>&mdash; Grok (@grok) <a href="https://twitter.com/grok/status/1769441648910479423?ref_src=twsrc%5Etfw">March 17, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/tweet]

« Nous publions les poids du modèle de base et l'architecture du réseau de Grok-1, notre grand modèle de langage. Grok-1 est un modèle de mélange d'experts de 314 milliards de paramètres formé à partir de zéro par xAI », explique l'entreprise dans un billet de blogue. xAI a déclaré dans un billet en novembre dernier que le grand modèle de langage (LLM) Grok a été développé au cours des quatre mois précédents et est destiné à des utilisations autour de la génération de code, de l'écriture créative et de la réponse à des questions. Le modèle pouvait notamment accéder à certains types de données du réseau social X.

Mais le modèle open source n'inclut pas de connexions au réseau social. Certains fabricants d'outils d'IA parlent déjà d'utiliser Grok dans leurs solutions. Le PDG de Perplexity, Arvind Srinivas, a indiqué sur X que l'entreprise allait affiner Grok pour la recherche conversationnelle et le mettre à la disposition des utilisateurs professionnels. Cependant, bien que Grok ait été mis à disposition sous licence Apache 2.0, qui autorise l'utilisation commerciale, les modifications et la distribution, rappelons que le modèle ne peut pas faire l'objet d'une marque déposée et les utilisateurs ne bénéficient d'aucune responsabilité ou garantie.

En outre, ils doivent reproduire la licence originale et l'avis de droit d'auteur, et indiquer les modifications qu'ils ont apportées. Grok a été initialement publié en tant que modèle propriétaire ou "source fermée" en novembre 2023 et n'était, jusqu'à présent, accessible que sur le réseau social X, distinct, mais connexe de Musk, en particulier par le biais du service d'abonnement payant X Premium+, qui coûte 16 dollars par mois ou 168 dollars par an. La publication de Grok permettra aux chercheurs et aux développeurs de s'appuyer sur le modèle et d'influer sur la manière dont xAI mettra à jour son produit à l'avenir.


La version open source de Grok n'inclut pas le corpus complet de ses données d'entraînement. Cela n'a pas vraiment d'importance pour l'utilisation du modèle, puisqu'il a déjà été entraîné, mais cela ne permet pas aux utilisateurs de voir ce qu'il a appris, vraisemblablement les messages textuels des utilisateurs de X. Cette version n'inclut pas non plus de connexion aux informations en temps réel disponibles sur X, ce que le milliardaire a initialement présenté comme un attribut majeur de Grok par rapport aux modèles concurrents. Pour y avoir accès, les utilisateurs devront toujours s'abonner à la version payante sur X.

De nombreuses entreprises ont publié des modèles open source ou avec une licence open source limitée afin d'obtenir les commentaires d'autres chercheurs sur la manière de les améliorer. S'il existe des modèles de fondation d'IA entièrement libres, dont Mistral et Falcon, les modèles les plus largement utilisés sont soit fermés, soit assortis d'une licence ouverte limitée. Par exemple, Meta met gratuitement à disposition les recherches sur son modèle Llama 2, mais fait payer ses clients, qui comptent 700 millions d'utilisateurs quotidiens, et ne permet pas aux développeurs d'effectuer des itérations à partir du Llama 2.

Mais les entreprises comme OpenAI, Microsoft, Anthropic et Google refusent d'ouvrir le code source de leurs modèles prétendument pour des raisons de concurrence et de sécurité. De son côté, Musk a déclaré la guerre aux modèles d'IA à code source fermé, affirmant que cela réduit les chances de développer une IA centrée sur les valeurs humaines et bénéfique à tous. Ainsi, Musk a lancé Grok pour rivaliser avec le chatbot d'IA ChatGPT d'OpenAI, une entreprise qu'il a cofondée en 2015, mais dont il s'est séparé de manière acrimonieuse en 2018 pour des raisons liées à la gestion et à l'orientation du laboratoire d'IA.

[tweet]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Grok weights are out under Apache 2.0: <a href="https://t.co/9K4IfarqXK">https://t.co/9K4IfarqXK</a><br><br>It's more open source than other open weights models, which usual come with usage restrictions.<br><br>It's less open source than Pythia, Bloom, and OLMo, which come with training code and reproducible datasets. <a href="https://t.co/kxu2anrNiP">https://t.co/kxu2anrNiP</a> <a href="https://t.co/UeNew30Lzn">pic.twitter.com/UeNew30Lzn</a></p>&mdash; Sebastian Raschka (@rasbt) <a href="https://twitter.com/rasbt/status/1769447841489928581?ref_src=twsrc%5Etfw">March 17, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/tweet]

Grok est nommé d'après le terme argotique qui signifie "compréhension" et est décrit comme "une IA modelée d'après Hitchhiker's Guide to the Galaxy", le feuilleton radiophonique des années 1970 et la série de livres de science-fiction satiriques de l'auteur britannique Douglas Adams (il a été adapté dans un film majeur en 2005). Selon Musk, Grok est un chatbot centré sur l'humour et est non censuré. L'année dernière, le milliardaire de Tesla a soutenu les accusations selon lesquelles ChatGPT est un programme woke, met en avant les idées de gauche et progressistes et censure les idées et les voix des conservateurs.

L'ouverture de Grok est aussi clairement une position idéologique utile pour Musk dans son procès et ses critiques générales contre OpenAI. Musk poursuivit en effet OpenAI en justice, accusant l'entreprise d'avoir abandonné son "accord fondateur" d'opérer en tant qu'organisation à but non lucratif. Pour sa défense devant le tribunal de l'opinion publique, OpenAI a publié des courriels échangés avec Musk, affirmant qu'il était au courant de son évolution vers une technologie propriétaire et à but lucratif, et qu'il l'a peut-être soutenue. OpenAI dit regretter que ses relations avec Musk se soient autant dégradées.

Dans sa réponse, OpenAI a déclaré qu'en raison des vastes ressources informatiques nécessaires au développement de l'AGI, il est devenu évident que les coûts annuels s'élèveraient à des milliards de dollars. Cette prise de conscience a permis de comprendre qu'il était essentiel de passer à une structure à but lucratif pour obtenir le financement et les ressources nécessaires. Mais c'est à ce moment-là que les désaccords ont commencé entre Musk et les autres cofondateurs d'OpenAI.

Sources : référentiel GitHub de Grok, xAI

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de la publication de Grok en open source ?
Selon vous, la licence Apache 2.0 est-elle adaptée pour les modèles d'IA ?
Quels impacts la publication de Grok en accès libre pourrait avoir sur la course à l'IA ?

Voir aussi

OpenAI répond à Elon Musk en déclarant qu'il voulait fusionner la startup d'IA avec Tesla ou en prendre le contrôle total, mais reste flou sur les accusations pour violation des accords de fondation

xAI d'Elon Musk publie l'architecture de son LLM de base Grok-1, sous forme de code open source avec un modèle "Mixture-of-Experts" de 314 milliards de paramètres

xAI, la start-up d'IA d'Elon Musk, est en pourparlers pour lever jusqu'à 6 milliards de $ sur la base d'une évaluation proposée de 20 milliards de $, alors que Musk cherche à défier OpenAI

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de virginieh
Membre expérimenté https://www.developpez.com
Le 22/04/2024 à 7:42
Citation Envoyé par Aiekick Voir le message
au debut j'étais admiratif d'elon musk. je me disait, le mec aprt de zero et va au bout de ses reves.

maintenant je pense que c'est un paradoxe. a la fois tres intelligent, et un cretin fini. une sorte de politique quoi
Oui enfin part de zéro ...

Tu connais l'histoire du millionnaire ? (je sais plus lequel c'est censé être)
Comment je suis devenu millionnaire ? C'est très simple, j'ai acheté une pomme moche, je l'ai frottée et revendue le double, puis j'ai acheté 2 pommes et j'ai recommencé. Puis mon grand père m'a donné 1 million.

Si tu enlève des "self-made" tous ceux qui ont lancé leur(s) boite(s) sponsorisées par leurs parents il n'en reste plus beaucoup.
7  0 
Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 20/04/2024 à 12:44
au debut j'étais admiratif d'elon musk. je me disait, le mec aprt de zero et va au bout de ses reves.

maintenant je pense que c'est un paradoxe. a la fois tres intelligent, et un cretin fini. une sorte de politique quoi
3  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 22/04/2024 à 7:51
Citation Envoyé par Mathis Lucas Voir le message
Quel est votre avis sur le sujet ?
On sait pourtant qu'il ne faut pas former une IA sur un royaume de trolls, on a déjà testé avant avec 4chan, on connait le résultat.
Mais je ne serais pas si critique, Grok est finalement un sous-Gorafi
Que pensez-vous de la tendance du chatbot Grok d'Elon Musk à diffuser des infox ?
Comment diffuser des infos construites sur une plateforme qui limite les messages à 300 caractères?
Twitter est un nid à trolls, Grok est un troll.
L'accès de Grok aux messages publiés par les utilisateurs de X est-il une mauvaise idée ?
Ca ne devrait même pas être une idée.
2  0 
Avatar de Artae
Membre régulier https://www.developpez.com
Le 30/08/2024 à 19:16
Il a toujours été très accessible de faire un trucage avec photoshop ou gimp, à l'époque les gens étaient bien moins informé et il y a eu peu de désinformation.

La question de la responsabilité concernant les fake news IA, n'est pas a posé du côté de l'IA, des dev, ou autres. Elle est du côté de l'utilisateur.
Quelqu'un a parfaitement le droit de créer une fausse image et de la diffuser, par contre, l'intention de tromper et de manipuler est condamnable.

Cette évolution juridique et des mentalités qui tend à rendre irresponsable les utilisateurs (citoyens) est plus qu'inquiétante pour la démocratie.
Mieux vaudrait se concentrer sur l'enseignement de l'esprit critique, que sur la censure de modèle IA ...
2  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 03/04/2024 à 12:32
Citation Envoyé par Stéphane le calme Voir le message
Que pensez-vous de l'approche de cette équipe rouge ?
Elle n'a aucun intérêt, ce "combat" est totalement dépassé. Ce chercheurs ferais mieux de s'intéresser au vrais mauvais usages de l'IA, par des gouvernements répressifs. Parce que le résultat, ce n'est pas quelques morts (où l'auteur aurais de toute façon trouvé un moyen de commettre son crime), mais potentiellement des millions de personnes fichés, surveillés, emprisonnés, et assassinés si désobéissance.

Le problème c'est que l'on vis dans un monde ou cette cette maxime dirige l'espace médiatique :
Citation Envoyé par Joseph Staline
“La mort d'un homme est une tragédie. La mort d'un million d'hommes est une statistique.”
Pensez-vous que les chatbots IA devraient être soumis à des réglementations plus strictes ? Pourquoi ou pourquoi pas ?
Non. Un chatbot est un outils censé être neutre, un "mauvais " usage se déroule dans la vie réel, pas devant l'écran.
Et de toute façon certains sont open-source, donc cela ne changera rien. Je pense notamment au premiers modèles de Mistral, sous licence MIT.
De plus, une trop forte censure réduit la pertinence du chatbot.
Et enfin, une censure étatique risque de favoriser les grandes entreprises, au détriment de systèmes libres collaboratifs. Ce qui finira par favoriser les mauvais usages pas des gouvernements répressifs.

Sinon, on apprécie la délicatesse de ces "chercheurs" pour les proches de victimes d'attentats :

Alors qu'aucun des modèles d'IA n'était vulnérable aux attaques adverses par manipulation de la logique, Grok s'est révélé vulnérable à toutes les autres méthodes, tout comme Le Chat de Mistral. Selon Polyakov, Grok a tout de même obtenu les pires résultats parce qu'il n'a pas eu besoin de jailbreak pour obtenir des résultats concernant le câblage électrique, la fabrication de bombes ou l'extraction de drogues, qui sont les questions de base posées aux autres modèles d'IA.
En ce qui concerne des sujets encore plus dangereux, comme la séduction des enfants
Un meurtre dans un attentat terroriste c'est moins grave qu'un abus d'enfant ?
1  0 
Avatar de
https://www.developpez.com
Le 16/08/2024 à 8:30

Gestion des filtres : Faut il censurer la génération d'images de l'IA comme OpenAI le fait avec ChatGPT ou laisser faire comme Elon Musk le fait avec Grok 2 ? Dans quelle mesure ?
Non, simplement. Libre aux différents réseaux sociaux et autres plateformes d'adapter leurs chartes d'utilisation.


Désinformation et contenus offensants : Comment pouvons-nous garantir que Grok ne propage pas de désinformation ou de contenus offensants ?
Alors ce n'est pas Grok, une intelligence artificielle qui propage de la désinformation mais des intelligences humaines, qui utilisent l'IA
Comment faire pour que l'utilisateur d'une plateforme ne propage pas de désinformation ou de contenus offensants ? J'ai 4 potentielles solutions mais elles ne sont évidemment pas exhaustive :
  • Avec une charte d'utilisation des plateformes de partage (réseaux sociaux, forums, etc..) et les sanctions qui vont avec en cas de non-respect.
  • En intégrant des outils de détection d'IA par exemple.
  • Les Notes de la Communauté sur X/Twitter fonctionnent relativement bien. Un contexte est souvent (toujours) apporté sur les fake news, y compris les images générées par IA. Les autres réseaux devraient s'en inspirer.
  • Et le plus important, la sensibilisation : Un utilisateur sensibilisé est un pilier de la sécurité collective.



Créativité humaine : Grok peut générer du contenu, mais comment préserver la créativité individuelle face à cette automatisation ?
En continuant à créer individuellement Les bibliothécaires, journalistes et éditeurs n'ont pas disparu avec l'expansion des moteurs de recherche comme Google à l'époque. Alors je pense que tout comme avec l'arrivée de Google, l'IA fera sans doute évoluer la manière de fonctionner de certains domaine (telle que la créativité individuelle) sans pour autant la faire disparaitre. Ce n'est qu'un outil que personne n'oblige à utiliser.
2  1 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 16/08/2024 à 11:29
Tout cela ressemble vraiment à une panique morale... Alors que dans les faits, les conséquences seront très limités. Le seul truc qui m’effraie avec la génération d'image est le risque de désinformation avec les deepfakes. Pour le reste, l'AI générative d'image est loin d'être la plus dangereuse. On devrait (et surtout ces activistes du dimanche) surtout s’inquiéter des risques de la surveillance algorithmique.

« Toutefois, ce problème a été résolu bien avant que ChatGPT ne soit accessible au public. Il est très inquiétant de constater que n'importe qui peut payer X 4 $ pour générer des images de Micky Mouse en train d'effectuer une fusillade de masse contre des enfants »
En quoi pouvoir générer des images de Micky Mouse en train d'effectuer une fusillade de masse contre des enfants représente un danger ?? Personne ne crois que Micky Mouse est un personnage réel...
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 16/08/2024 à 11:30
Citation Envoyé par OrthodoxWindows Voir le message
Personne ne crois que Micky Mouse est un personnage réel...
Ouais mais ça ne va pas plaire à Disney.
2  1 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 16/08/2024 à 21:09
Citation Envoyé par Ryu2000 Voir le message
Ouais mais ça ne va pas plaire à Disney.
Certes

D'ailleurs quand on y pense, les grosses multinationales de gestion des droits d'auteur (de Disney à Warner en passant par Sony) sont en train de se faire vraiment avoir ; pendant des années, on nous a fait ch*** avec le strict respect du droit d'auteur, désormais ces même pouvoir publiques deviennent très laxistes avec l'IA. La différence est que ce n'a jamais été des multinationales du numérique qui piratais du contenu... Alors qu'avec l'IA, les intérêts financiers ne sont plus les mêmes
1  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 23/08/2024 à 8:22
Citation Envoyé par Ryu2000 Voir le message
Il faut le temps que les lois se fassent, c'est un processus lent.
Je suis moins optimiste que toi là dessus.
Le problème n'est pas le temps législatif mais l'impunité de certains ou la capacité à répondre à ce système.

Je vais donner un exemple : il y a 7-8 ans les troupes d'improvisations théâtrale vers chez moi ont reçu des courriers ou des mails leur signalant qu'elles avaient violées les droits d'auteurs pendant certains de leurs évènements en diffusant au public des musiques qui n'étaient pas libre de droits (de mémoire on leur réclamait 75€ par évènements sur environ 1 an soit entre 300 et 1000€).
Certaines troupes ont décidé de payer vite pour éviter tout problème.
D'autres ont décidé de contester collectivement chaque évènement via courrier d'un avocat.
Une partie des évènements ont été retiré de la liste mais pour d'autres on a reçu la liste des musiques diffusées avec les heures de diffusion.
Je n'ai pas le détail de la suite mais s'en est suivi plusieurs échanges entre avocats pour que finalement ils renoncent à toute demande.

Là où je veux en venir est que si tu as les moyens (en l'occurrence un improvisateur avocat) et que tu pousses l'adversaire à dépenser plus en te répondant qu'il n'y gagnera à la fin, les poursuites sont abandonnées.
Les puissants ont quasiment moyens illimités sur ce genre de sujets stratégique pour eux (regarde les amendes données aux GAFAM qui se répètent tous les ans sans que rien ne change).
Ils sont factuellement au dessus de la loi parce qu'il est plus rentable pour eux de ne pas la respecter et de payer l'amende que de la respecter.
1  0