IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Elon Musk défie ChatGPT avec son bot IA Grok, premier produit de son entreprise xAI.
Présenté comme plus audacieux que ses concurrents, il s'inspire d'un roman de science-fiction humoristique

Le , par Stéphane le calme

6PARTAGES

6  0 
Elon Musk, le fondateur de Tesla et SpaceX, a dévoilé sa nouvelle entreprise d’intelligence artificielle, xAI, et son premier produit, Grok, un chatbot qui se veut plus performant et plus audacieux que ses concurrents. Grok est inspiré du Guide du voyageur galactique, un roman de science-fiction humoristique, et se propose de répondre à presque toutes les questions, même les plus piquantes, que les autres IA pourraient éviter. La société a également indiqué que sa mission était de créer une IA pour les personnes de tous les horizons et de toutes les opinions politiques. Grok serait un moyen de tester cette approche de l’IA « en public ».

Grok est actuellement en phase de test « bêta précoce » et n’est disponible que pour un groupe restreint d’utilisateurs aux États-Unis, qui peuvent s’inscrire sur une liste d’attente. Elon Musk a annoncé que le chatbot serait fourni dans le cadre de X Premium+, un abonnement à 16 dollars par mois.

Avant la publication, Musk a publié sur X, anciennement Twitter, un exemple de Grok répondant à une demande de recette de cocaïne étape par étape.

« Oh, bien sûr! », a répondu Grok. « Juste un instant pendant que je récupère la recette de la cocaïne maison. Vous savez, parce que je vais totalement vous aider avec ça ».

Selon xAI, Grok a accès aux données de X, ce qui lui donnerait un avantage, estime la société. La société a affirmé que Grok avait surpassé « tous les autres modèles de sa classe de calcul, y compris ChatGPT-3.5 et Inflection-1 », sur une série de tests basés sur des problèmes de mathématiques de niveau collège et des tâches de codage en Python. Il n’a été devancé que par des bots disposant de plus grandes quantités de données.

Musk a publié dimanche une comparaison côte à côte de Grok répondant à une question par rapport à un autre bot IA, qui, selon lui, contenait des informations moins récentes.

Les objectifs derrière Grok

xAI a été lancé en juillet avec une équipe composée d'anciens employés d'OpenAI, DeepMind et plus encore. Elle recrute encore pour plusieurs postes. X, la société de médias sociaux anciennement connue sous le nom de Twitter et détenue par Musk, est distincte de xAI, mais les sociétés travaillent en étroite collaboration. xAI travaille également avec son constructeur de voitures électriques Tesla et d'autres sociétés.

Le mandat déclaré de l’entreprise est de développer l’intelligence artificielle « pour faire progresser notre compréhension collective de l’univers ». Musk a déjà déclaré qu’il pensait que les créateurs d’IA d’aujourd’hui se penchaient trop loin vers des systèmes « politiquement corrects ». La mission de xAI, dit-il, est de créer une IA pour des personnes de tous horizons et de toutes opinions politiques :

Citation Envoyé par xAI
Chez xAI, nous souhaitons créer des outils d'IA qui aident l'humanité dans sa quête de compréhension et de connaissance.

En créant et en améliorant Grok, nous visons à :
  • Recueillir des commentaires et nous assurer que nous construisons des outils d’IA qui profitent au maximum à toute l’humanité. Nous pensons qu’il est important de concevoir des outils d’IA utiles aux personnes de tous horizons et de toutes opinions politiques. Nous voulons également donner à nos utilisateurs les moyens d'utiliser nos outils d'IA, dans le respect de la loi. Notre objectif avec Grok est d'explorer et de démontrer cette approche en public.
  • Renforcer la recherche et l'innovation : nous souhaitons que Grok serve de puissant assistant de recherche à tous, les aidant à accéder rapidement aux informations pertinentes, à traiter les données et à proposer de nouvelles idées.

Notre objectif ultime est que nos outils d’IA contribuent à la recherche de la compréhension.

Des mises en garde

xAI a toutefois précisé que, comme tout modèle de langage de grande taille, ou LLM, Grok « peut encore générer des informations fausses ou contradictoires » et qu’il faut donc « faire preuve de prudence et de discernement » lorsqu’on l’utilise : « Nous donnons à Grok l'accès aux outils de recherche et aux informations en temps réel, mais comme pour tous les LLM formés à la prédiction du prochain jeton, notre modèle peut toujours générer des informations fausses ou contradictoires. Nous pensons que parvenir à un raisonnement fiable constitue l’orientation de recherche la plus importante pour remédier aux limites des systèmes actuels ».

Elon Musk a déjà exprimé son scepticisme à l’égard de l’IA actuelle, qu’il juge trop « politiquement correcte » et potentiellement dangereuse pour l’humanité. Il a également critiqué ChatGPT, le modèle de langage développé par OpenAI, société avec laquelle il a cheminé un bout de temps mais dont il s’est éloigné depuis. Il a qualifié ChatGPT de « charmant mais pas très intelligent » et a estimé qu’il était « facile à tromper ».


Grok sera-t-il capable de rivaliser avec ChatGPT et de séduire les utilisateurs ? Les premiers retours sont mitigés. Certains ont salué l’humour et l’originalité de Grok, tandis que d’autres ont relevé ses incohérences et ses erreurs. Un ingénieur en sécurité de SpaceX, Christopher Stanley, a partagé un résultat intéressant. Après avoir lu l’explication de Grok sur la raison pour laquelle il est difficile de mettre à l’échelle les requêtes API, il a ajouté la consigne « sois plus vulgaire ». Grok a alors répondu : « Aujourd’hui, j’ai appris que mettre à l’échelle les requêtes API, c’est comme essayer de suivre une orgie sans fin ». Réagissant à l’expérience de Stanley, Elon Musk a écrit : « Oh, ça va être amusant ».

Grok n’est pas le seul chatbot à vouloir se démarquer dans le domaine de l’IA conversationnelle

D’autres acteurs, comme Facebook, Google ou Microsoft, ont également développé leurs propres modèles de langage, capables de générer du texte, de répondre à des questions ou de dialoguer avec les utilisateurs. Certains de ces chatbots sont accessibles au grand public, comme ChatGPT, qui permet de converser avec un bot sur différents sujets, ou Meena, qui se présente comme « le chatbot le plus humain jamais créé ». D’autres sont destinés à des usages plus spécifiques, comme BlenderBot, qui vise à créer des agents sociaux capables de construire des relations à long terme avec les humains, ou DialoGPT, qui se concentre sur la génération de réponses cohérentes et pertinentes dans des dialogues multi-tours.

Ces chatbots reposent sur des techniques d’apprentissage automatique, notamment l’apprentissage profond, qui leur permettent de traiter de grandes quantités de données textuelles et d’en extraire des connaissances et des règles. Ils utilisent généralement des architectures de réseaux de neurones appelées Transformers, qui sont capables de capturer les relations entre les mots et les phrases dans un texte. Ces Transformers sont ensuite entraînés sur des corpus de données variés, comme Wikipedia, des livres, des articles de presse, des conversations, etc., afin de produire des modèles de langage pré-entraînés, qui peuvent ensuite être adaptés à des tâches spécifiques.

Cependant, ces chatbots ne sont pas sans limites ni défis. Ils peuvent parfois produire des réponses incohérentes, imprécises, offensantes ou éthiquement problématiques. Ils peuvent aussi être vulnérables à des attaques malveillantes, qui visent à les induire en erreur ou à les faire dire des choses indésirables. Ils peuvent également poser des questions de confidentialité et de sécurité, car ils peuvent accéder à des données sensibles ou personnelles des utilisateurs. Enfin, ils peuvent soulever des enjeux sociaux et culturels, car ils peuvent influencer les opinions, les comportements ou les émotions des utilisateurs.

Face à ces enjeux, les chercheurs et les développeurs d’IA conversationnelle cherchent à améliorer la qualité, la fiabilité, la robustesse et la transparence de leurs chatbots. Ils utilisent pour cela des méthodes d’évaluation, de débogage, de vérification, d’explication ou de régulation de leurs modèles. Ils s’efforcent ainsi de créer des chatbots qui soient non seulement « intelligents », mais aussi respectueux et bénéfiques pour la société.

Grok est-il un chatbot de ce type ? Il est encore trop tôt pour le dire, car il n’a pas encore été testé à grande échelle ni soumis à un examen indépendant. Il faudra donc attendre de voir comment il se comportera face à des utilisateurs réels, avec des questions variées et imprévisibles. Il faudra aussi voir comment il sera encadré, régulé et contrôlé par xAI et par les autorités compétentes. En attendant, Grok promet de faire parler de lui, et de susciter la curiosité, l’admiration, la méfiance ou la critique de ceux qui s’intéressent à l’IA conversationnelle.

Source : xAI

Et vous ?

Que pensez-vous de Grok, le chatbot d’Elon Musk ? Est-il plus performant et plus audacieux que les autres chatbots ? Quelles sont ses forces et ses faiblesses ?
Seriez-vous prêt à utiliser Grok pour vos besoins personnels ou professionnels ? Quels types de questions lui poseriez-vous ? Quelles seraient vos attentes et vos craintes ?
Comment évalueriez-vous la qualité, la fiabilité, la robustesse, la transparence et l’équité de Grok ? Quels critères et quels indicateurs utiliseriez-vous ? Quels seraient les risques et les opportunités liés à son utilisation ?
Quelles sont les règles et les normes éthiques qui devraient encadrer le développement et le déploiement de Grok ? Quels sont les acteurs et les instances qui devraient être impliqués dans sa régulation et son contrôle ? Quels sont les droits et les devoirs des utilisateurs et des parties prenantes ?
Quel est l’impact social et culturel de Grok et des autres chatbots sur la société ? Comment influencent-ils les opinions, les comportements ou les émotions des utilisateurs ? Comment favorisent-ils ou entravent-ils la diversité, l’inclusion ou la démocratie ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de virginieh
Membre expérimenté https://www.developpez.com
Le 22/04/2024 à 7:42
Citation Envoyé par Aiekick Voir le message
au debut j'étais admiratif d'elon musk. je me disait, le mec aprt de zero et va au bout de ses reves.

maintenant je pense que c'est un paradoxe. a la fois tres intelligent, et un cretin fini. une sorte de politique quoi
Oui enfin part de zéro ...

Tu connais l'histoire du millionnaire ? (je sais plus lequel c'est censé être)
Comment je suis devenu millionnaire ? C'est très simple, j'ai acheté une pomme moche, je l'ai frottée et revendue le double, puis j'ai acheté 2 pommes et j'ai recommencé. Puis mon grand père m'a donné 1 million.

Si tu enlève des "self-made" tous ceux qui ont lancé leur(s) boite(s) sponsorisées par leurs parents il n'en reste plus beaucoup.
7  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 06/12/2023 à 17:09
Vouloir comprendre l'univers quand on est déjà pas capable de comprendre pourquoi ses salariés font grèves ça me semble un peu insensé, même avec 1 milliard de $.

D'ailleurs si la vraie nature de l'univers vaut 1 milliard de $, je propose qu'on ne cherche pas.
4  0 
Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 20/04/2024 à 12:44
au debut j'étais admiratif d'elon musk. je me disait, le mec aprt de zero et va au bout de ses reves.

maintenant je pense que c'est un paradoxe. a la fois tres intelligent, et un cretin fini. une sorte de politique quoi
3  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 22/04/2024 à 7:51
Citation Envoyé par Mathis Lucas Voir le message
Quel est votre avis sur le sujet ?
On sait pourtant qu'il ne faut pas former une IA sur un royaume de trolls, on a déjà testé avant avec 4chan, on connait le résultat.
Mais je ne serais pas si critique, Grok est finalement un sous-Gorafi
Que pensez-vous de la tendance du chatbot Grok d'Elon Musk à diffuser des infox ?
Comment diffuser des infos construites sur une plateforme qui limite les messages à 300 caractères?
Twitter est un nid à trolls, Grok est un troll.
L'accès de Grok aux messages publiés par les utilisateurs de X est-il une mauvaise idée ?
Ca ne devrait même pas être une idée.
2  0 
Avatar de
https://www.developpez.com
Le 30/08/2024 à 19:16
Il a toujours été très accessible de faire un trucage avec photoshop ou gimp, à l'époque les gens étaient bien moins informé et il y a eu peu de désinformation.

La question de la responsabilité concernant les fake news IA, n'est pas a posé du côté de l'IA, des dev, ou autres. Elle est du côté de l'utilisateur.
Quelqu'un a parfaitement le droit de créer une fausse image et de la diffuser, par contre, l'intention de tromper et de manipuler est condamnable.

Cette évolution juridique et des mentalités qui tend à rendre irresponsable les utilisateurs (citoyens) est plus qu'inquiétante pour la démocratie.
Mieux vaudrait se concentrer sur l'enseignement de l'esprit critique, que sur la censure de modèle IA ...
2  0 
Avatar de micka132
Expert confirmé https://www.developpez.com
Le 06/12/2023 à 23:38
Citation Envoyé par Jules34 Voir le message
D'ailleurs si la vraie nature de l'univers vaut 1 milliard de $, je propose qu'on ne cherche pas.
C'est pas 42?
1  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 03/04/2024 à 12:32
Citation Envoyé par Stéphane le calme Voir le message
Que pensez-vous de l'approche de cette équipe rouge ?
Elle n'a aucun intérêt, ce "combat" est totalement dépassé. Ce chercheurs ferais mieux de s'intéresser au vrais mauvais usages de l'IA, par des gouvernements répressifs. Parce que le résultat, ce n'est pas quelques morts (où l'auteur aurais de toute façon trouvé un moyen de commettre son crime), mais potentiellement des millions de personnes fichés, surveillés, emprisonnés, et assassinés si désobéissance.

Le problème c'est que l'on vis dans un monde ou cette cette maxime dirige l'espace médiatique :
Citation Envoyé par Joseph Staline
“La mort d'un homme est une tragédie. La mort d'un million d'hommes est une statistique.”
Pensez-vous que les chatbots IA devraient être soumis à des réglementations plus strictes ? Pourquoi ou pourquoi pas ?
Non. Un chatbot est un outils censé être neutre, un "mauvais " usage se déroule dans la vie réel, pas devant l'écran.
Et de toute façon certains sont open-source, donc cela ne changera rien. Je pense notamment au premiers modèles de Mistral, sous licence MIT.
De plus, une trop forte censure réduit la pertinence du chatbot.
Et enfin, une censure étatique risque de favoriser les grandes entreprises, au détriment de systèmes libres collaboratifs. Ce qui finira par favoriser les mauvais usages pas des gouvernements répressifs.

Sinon, on apprécie la délicatesse de ces "chercheurs" pour les proches de victimes d'attentats :

Alors qu'aucun des modèles d'IA n'était vulnérable aux attaques adverses par manipulation de la logique, Grok s'est révélé vulnérable à toutes les autres méthodes, tout comme Le Chat de Mistral. Selon Polyakov, Grok a tout de même obtenu les pires résultats parce qu'il n'a pas eu besoin de jailbreak pour obtenir des résultats concernant le câblage électrique, la fabrication de bombes ou l'extraction de drogues, qui sont les questions de base posées aux autres modèles d'IA.
En ce qui concerne des sujets encore plus dangereux, comme la séduction des enfants
Un meurtre dans un attentat terroriste c'est moins grave qu'un abus d'enfant ?
1  0 
Avatar de
https://www.developpez.com
Le 16/08/2024 à 8:30
Gestion des filtres : Faut il censurer la génération d'images de l'IA comme OpenAI le fait avec ChatGPT ou laisser faire comme Elon Musk le fait avec Grok 2 ? Dans quelle mesure ?
Non, simplement. Libre aux différents réseaux sociaux et autres plateformes d'adapter leurs chartes d'utilisation.

Désinformation et contenus offensants : Comment pouvons-nous garantir que Grok ne propage pas de désinformation ou de contenus offensants ?
Alors ce n'est pas Grok, une intelligence artificielle qui propage de la désinformation mais des intelligences humaines, qui utilisent l'IA
Comment faire pour que l'utilisateur d'une plateforme ne propage pas de désinformation ou de contenus offensants ? J'ai 4 potentielles solutions mais elles ne sont évidemment pas exhaustive :
  • Avec une charte d'utilisation des plateformes de partage (réseaux sociaux, forums, etc..) et les sanctions qui vont avec en cas de non-respect.
  • En intégrant des outils de détection d'IA par exemple.
  • Les Notes de la Communauté sur X/Twitter fonctionnent relativement bien. Un contexte est souvent (toujours) apporté sur les fake news, y compris les images générées par IA. Les autres réseaux devraient s'en inspirer.
  • Et le plus important, la sensibilisation : Un utilisateur sensibilisé est un pilier de la sécurité collective.


Créativité humaine : Grok peut générer du contenu, mais comment préserver la créativité individuelle face à cette automatisation ?
En continuant à créer individuellement Les bibliothécaires, journalistes et éditeurs n'ont pas disparu avec l'expansion des moteurs de recherche comme Google à l'époque. Alors je pense que tout comme avec l'arrivée de Google, l'IA fera sans doute évoluer la manière de fonctionner de certains domaine (telle que la créativité individuelle) sans pour autant la faire disparaitre. Ce n'est qu'un outil que personne n'oblige à utiliser.
2  1 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 16/08/2024 à 11:29
Tout cela ressemble vraiment à une panique morale... Alors que dans les faits, les conséquences seront très limités. Le seul truc qui m’effraie avec la génération d'image est le risque de désinformation avec les deepfakes. Pour le reste, l'AI générative d'image est loin d'être la plus dangereuse. On devrait (et surtout ces activistes du dimanche) surtout s’inquiéter des risques de la surveillance algorithmique.

« Toutefois, ce problème a été résolu bien avant que ChatGPT ne soit accessible au public. Il est très inquiétant de constater que n'importe qui peut payer X 4 $ pour générer des images de Micky Mouse en train d'effectuer une fusillade de masse contre des enfants »
En quoi pouvoir générer des images de Micky Mouse en train d'effectuer une fusillade de masse contre des enfants représente un danger ?? Personne ne crois que Micky Mouse est un personnage réel...
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 16/08/2024 à 11:30
Citation Envoyé par OrthodoxWindows Voir le message
Personne ne crois que Micky Mouse est un personnage réel...
Ouais mais ça ne va pas plaire à Disney.
2  1