IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La startup xAI d'Elon Musk lève 6 milliards de dollars lors d'un nouveau tour de financement de série B
L'argent servira à commercialiser les produits de xAI, dont Grok, un rival de ChatGPT, formé sur X.com

Le , par Anthony

53PARTAGES

4  0 
La startup xAI d'Elon Musk lève 6 milliards de dollars lors d'un nouveau tour de financement de série B, l'argent servira à commercialiser les produits de xAI, dont Grok, un rival de ChatGPT, formé sur X.com

La startup d'intelligence artificielle xAI d'Elon Musk a levé 6 milliards de dollars lors d'un tour de financement de série B, ce qui est considéré comme l'accélération des efforts de l'entreprise pour aller de l'avant dans la course effrénée à l'IA et pour défier les rivaux du marché tels qu'OpenAI.

Elon Musk est un homme d'affaires et un investisseur. Il est le fondateur, président, PDG et directeur technique de SpaceX ; investisseur providentiel, PDG, architecte de produits et ancien président de Tesla, Inc ; propriétaire, président exécutif et directeur technique de X Corp ; fondateur de The Boring Company et de xAI ; cofondateur de Neuralink et d'OpenAI ; président de la Fondation Musk. Elon Musk est l'une des personnes les plus riches du monde ; en avril 2024, Forbes estime sa valeur nette à 196 milliards de dollars américains.

X.AI Corp. est une startup américaine qui travaille dans le domaine de l'intelligence artificielle (IA). Fondée par Elon Musk en mars 2023, son objectif déclaré est de « comprendre la véritable nature de l'univers » et l'un de ses objectifs immédiats est de créer une IA capable d'un raisonnement mathématique avancé, ce qui n'est pas le cas des modèles actuels. Le 4 novembre 2023, xAI a dévoilé Grok, un chatbot d'IA intégré à X.


Le financement de série B de 6 milliards de dollars est intervenu moins d'un an après les débuts de l'entreprise en juillet 2023 et a été soutenu par des investisseurs tels qu'Andreessen Horowitz et Sequoia Capital, entre autres, a indiqué xAI dans un billet de blog.

L'argent sera utilisé pour commercialiser les premiers produits de xAI, construire une infrastructure avancée et accélérer la recherche et le développement de technologies futures, a indiqué xAI.

La startup xAI a lancé le chatbot Grok, qui a été formé pour être intégré à la plateforme X, dont Musk est également propriétaire.

Dans un billet de blog publié le dimanche 26 mai 2024, l'entreprise a vanté les progrès de xAI, citant les récentes annonces du modèle Grok-1.5 amélioré avec une capacité de contexte long et Grok-1.5V avec une compréhension des images.

« Il y aura d'autres annonces dans les semaines à venir », a déclaré M. Musk dans un message sur X, anciennement Twitter, en réponse à l'annonce du financement.

« La valorisation pre-money était de 18 milliards de dollars », a-t-il précisé.

La course à l'IA s'est accélérée, plusieurs investisseurs signant de gros chèques pour des startups cherchant à concurrencer les leaders du marché comme OpenAI. Le géant de la technologie Microsoft a investi environ 13 milliards de dollars dans OpenAI, tandis que le géant du commerce électronique Amazon a soutenu Anthropic avec un financement de 4 milliards de dollars.

Musk a cofondé OpenAI en 2015, mais l'a quittée en 2018, disant plus tard qu'il n'était pas à l'aise avec la direction axée sur le profit que prenait l'entreprise sous la direction du PDG Sam Altman.

Le contenu du billet de blog de xAI est présenté ci-dessous :

xAI a le plaisir d'annoncer son tour de table de série B, d'un montant de 6 milliards de dollars, avec la participation d'investisseurs clés tels que Valor Equity Partners, Vy Capital, Andreessen Horowitz, Sequoia Capital, Fidelity Management & Research Company, Prince Alwaleed Bin Talal et Kingdom Holding, entre autres.

xAI a fait des progrès considérables au cours de l'année écoulée. De l'annonce de la création de la société en juillet 2023 à la sortie de Grok-1 sur X en novembre, en passant par les annonces récentes du modèle Grok-1.5 amélioré avec la capacité de contexte long et de Grok-1.5V avec la compréhension des images, les capacités de modélisation de xAI se sont rapidement améliorées. Avec la publication de Grok-1 en open-source, xAI a ouvert la voie à des avancées dans diverses applications, optimisations et extensions du modèle.

xAI poursuivra cette trajectoire de progrès au cours des prochains mois, avec de nombreuses mises à jour technologiques et des produits passionnants qui seront bientôt annoncés. Les fonds recueillis serviront à commercialiser les premiers produits de xAI, à mettre en place une infrastructure avancée et à accélérer la recherche et le développement de technologies futures.

xAI se concentre principalement sur le développement de systèmes d'IA avancés qui sont véridiques, compétents et maximalement bénéfiques pour l'ensemble de l'humanité. La mission de l'entreprise est de comprendre la véritable nature de l'univers.

xAI recrute pour de nombreux postes et recherche des personnes talentueuses prêtes à rejoindre une petite équipe désireuse d'avoir un impact significatif sur l'avenir de l'humanité. Les personnes intéressées peuvent postuler dès aujourd'hui sur x.ai/careers.
Source : "Series B Funding Round: xAI is pleased to announce our series B funding round of $6 billion" (xAI)

Et vous ?

Qu'en pensez-vous ?
Pensez-vous que xAI sera en mesure de tenir ses promesses ?

Voir aussi :

La startup xAI d'Elon Musk s'approche d'un financement de 6 milliards de $, pour concurrencer ChatGPT avec son chatbot Grok, son formidable générateur de fake news à la hauteur de son créateur Elon Musk

L'entreprise xAI d'Elon Musk présente Grok 1.5 Vision Preview. Il serait capable de "comprendre" et traiter des infos visuelles telles que des graphiques, des photographies ou des captures d'écran

xAI dévoile son chatbot d'IA Grok 1.5 avec un "raisonnement amélioré" qui accroit ses performances en codage et en mathématiques, mais il reste à la traîne par rapport à OpenAI et à Anthropic
Vous avez lu gratuitement 631 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 30/08/2024 à 19:16
Il a toujours été très accessible de faire un trucage avec photoshop ou gimp, à l'époque les gens étaient bien moins informé et il y a eu peu de désinformation.

La question de la responsabilité concernant les fake news IA, n'est pas a posé du côté de l'IA, des dev, ou autres. Elle est du côté de l'utilisateur.
Quelqu'un a parfaitement le droit de créer une fausse image et de la diffuser, par contre, l'intention de tromper et de manipuler est condamnable.

Cette évolution juridique et des mentalités qui tend à rendre irresponsable les utilisateurs (citoyens) est plus qu'inquiétante pour la démocratie.
Mieux vaudrait se concentrer sur l'enseignement de l'esprit critique, que sur la censure de modèle IA ...
2  0 
Avatar de Mingolito
Expert éminent https://www.developpez.com
Le 20/06/2025 à 14:14
Oui enfin la c'est un cas particulier, au lieu d'utiliser des turbines performantes et agréés, son super Grok utilise des turbines de secours ultra polluantes, et qui empoisonnent les habitants aux alentour.

Avec ses milliards au lieu d'acheter twitter pour en faire de la merde, il aurait pu faire construire un parc solaire avec des batteries pour alimenter son truc, donc ça se voie que le Musk en a rien à foutre ni des gens ni de la planète. Ah oui il a dit qu'il allait abandonner la terre pour devenir le roi de Mars, enfin je ne sais pas s'il va oser un jour embarquer dans son Starship en carton. Jeff Bezos au moins lui il a osé embarquer dans sa fusée phallique, alors que Elon a jamais osé mettre les pieds dans une de ses fusées.
2  0 
Avatar de Mingolito
Expert éminent https://www.developpez.com
Le 23/06/2025 à 2:54
Tu n'a pas compris le problème, c'est pas juste un problème de turbine à gaz banal c'est que l'installation d'Elon n'est pas classique, c'est de la pure merde inadmissible, c'est un pur assassinat de la population locale, un crime pour lequel il devrait être pendu haut et cours :


Elon Musk installe des turbines « rapides et sales » pour alimenter les centres de données de xAI à Memphis

xAI, la société d'IA d'Elon Musk, utilise des turbines mobiles au gaz naturel pour alimenter son nouveau centre de données Colossus à Memphis, dans le Tennessee, en raison de l'insuffisance de l'électricité fournie par le réseau local. Ces turbines, généralement utilisées en cas d'urgence, sont moins efficaces sur le plan énergétique et émettent plus de polluants que les centrales électriques classiques. L'utilisation de ces turbines par xAI sans autorisation appropriée a suscité l'inquiétude des journalistes locaux et des défenseurs de l'environnement. L'entreprise n'a déposé une demande de permis qu'en janvier 2025, plusieurs mois après que les turbines aient été mises en service, en vue d'obtenir une autorisation pour les turbines existantes et les projets d'en ajouter d'autres. Cette démarche a suscité des critiques en raison de son impact sur l'environnement et de son manque de transparence.

Le département de la santé du comté de Shelby n'a pas fixé de calendrier pour l'approbation des turbines, qui sont sur le point d'émettre une limite critique de formaldéhyde. Si les émissions dépassent 10 tonnes par an, le site sera considéré comme une "source majeure" de pollution, ce qui entraînera une réglementation plus stricte. xAI s'étend également à un deuxième site à Memphis, en utilisant probablement des turbines plus mobiles, ce qui exacerbera les problèmes environnementaux dans une zone déjà polluée. L'approche de l'entreprise a été critiquée pour son manque de respect envers la communauté locale, qui a toujours souffert de la pollution industrielle.

Principaux enseignements :
- xAI utilise des turbines mobiles au gaz naturel pour alimenter son centre de données Colossus à Memphis. Ces turbines sont généralement utilisées en cas d'urgence et sont peu respectueuses de l'environnement.
- xAI a exploité ces turbines sans les permis aériens requis, ce qui a donné lieu à des contestations juridiques et à une demande de permis retardée pour ajouter d'autres turbines.
- L'utilisation de turbines mobiles est une solution palliative en raison de la forte demande d'énergie et des retards dans la production de turbines fixes, bien qu'elles soient moins efficaces et plus polluantes.
2  0 
Avatar de
https://www.developpez.com
Le 16/08/2024 à 8:30
Gestion des filtres : Faut il censurer la génération d'images de l'IA comme OpenAI le fait avec ChatGPT ou laisser faire comme Elon Musk le fait avec Grok 2 ? Dans quelle mesure ?
Non, simplement. Libre aux différents réseaux sociaux et autres plateformes d'adapter leurs chartes d'utilisation.

Désinformation et contenus offensants : Comment pouvons-nous garantir que Grok ne propage pas de désinformation ou de contenus offensants ?
Alors ce n'est pas Grok, une intelligence artificielle qui propage de la désinformation mais des intelligences humaines, qui utilisent l'IA
Comment faire pour que l'utilisateur d'une plateforme ne propage pas de désinformation ou de contenus offensants ? J'ai 4 potentielles solutions mais elles ne sont évidemment pas exhaustive :
  • Avec une charte d'utilisation des plateformes de partage (réseaux sociaux, forums, etc..) et les sanctions qui vont avec en cas de non-respect.
  • En intégrant des outils de détection d'IA par exemple.
  • Les Notes de la Communauté sur X/Twitter fonctionnent relativement bien. Un contexte est souvent (toujours) apporté sur les fake news, y compris les images générées par IA. Les autres réseaux devraient s'en inspirer.
  • Et le plus important, la sensibilisation : Un utilisateur sensibilisé est un pilier de la sécurité collective.


Créativité humaine : Grok peut générer du contenu, mais comment préserver la créativité individuelle face à cette automatisation ?
En continuant à créer individuellement Les bibliothécaires, journalistes et éditeurs n'ont pas disparu avec l'expansion des moteurs de recherche comme Google à l'époque. Alors je pense que tout comme avec l'arrivée de Google, l'IA fera sans doute évoluer la manière de fonctionner de certains domaine (telle que la créativité individuelle) sans pour autant la faire disparaitre. Ce n'est qu'un outil que personne n'oblige à utiliser.
2  1 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 16/08/2024 à 11:29
Tout cela ressemble vraiment à une panique morale... Alors que dans les faits, les conséquences seront très limités. Le seul truc qui m’effraie avec la génération d'image est le risque de désinformation avec les deepfakes. Pour le reste, l'AI générative d'image est loin d'être la plus dangereuse. On devrait (et surtout ces activistes du dimanche) surtout s’inquiéter des risques de la surveillance algorithmique.

« Toutefois, ce problème a été résolu bien avant que ChatGPT ne soit accessible au public. Il est très inquiétant de constater que n'importe qui peut payer X 4 $ pour générer des images de Micky Mouse en train d'effectuer une fusillade de masse contre des enfants »
En quoi pouvoir générer des images de Micky Mouse en train d'effectuer une fusillade de masse contre des enfants représente un danger ?? Personne ne crois que Micky Mouse est un personnage réel...
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 16/08/2024 à 11:30
Citation Envoyé par OrthodoxWindows Voir le message
Personne ne crois que Micky Mouse est un personnage réel...
Ouais mais ça ne va pas plaire à Disney.
2  1 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 16/08/2024 à 21:09
Citation Envoyé par Ryu2000 Voir le message
Ouais mais ça ne va pas plaire à Disney.
Certes

D'ailleurs quand on y pense, les grosses multinationales de gestion des droits d'auteur (de Disney à Warner en passant par Sony) sont en train de se faire vraiment avoir ; pendant des années, on nous a fait ch*** avec le strict respect du droit d'auteur, désormais ces même pouvoir publiques deviennent très laxistes avec l'IA. La différence est que ce n'a jamais été des multinationales du numérique qui piratais du contenu... Alors qu'avec l'IA, les intérêts financiers ne sont plus les mêmes
1  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 23/08/2024 à 8:22
Citation Envoyé par Ryu2000 Voir le message
Il faut le temps que les lois se fassent, c'est un processus lent.
Je suis moins optimiste que toi là dessus.
Le problème n'est pas le temps législatif mais l'impunité de certains ou la capacité à répondre à ce système.

Je vais donner un exemple : il y a 7-8 ans les troupes d'improvisations théâtrale vers chez moi ont reçu des courriers ou des mails leur signalant qu'elles avaient violées les droits d'auteurs pendant certains de leurs évènements en diffusant au public des musiques qui n'étaient pas libre de droits (de mémoire on leur réclamait 75€ par évènements sur environ 1 an soit entre 300 et 1000€).
Certaines troupes ont décidé de payer vite pour éviter tout problème.
D'autres ont décidé de contester collectivement chaque évènement via courrier d'un avocat.
Une partie des évènements ont été retiré de la liste mais pour d'autres on a reçu la liste des musiques diffusées avec les heures de diffusion.
Je n'ai pas le détail de la suite mais s'en est suivi plusieurs échanges entre avocats pour que finalement ils renoncent à toute demande.

Là où je veux en venir est que si tu as les moyens (en l'occurrence un improvisateur avocat) et que tu pousses l'adversaire à dépenser plus en te répondant qu'il n'y gagnera à la fin, les poursuites sont abandonnées.
Les puissants ont quasiment moyens illimités sur ce genre de sujets stratégique pour eux (regarde les amendes données aux GAFAM qui se répètent tous les ans sans que rien ne change).
Ils sont factuellement au dessus de la loi parce qu'il est plus rentable pour eux de ne pas la respecter et de payer l'amende que de la respecter.
1  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 31/08/2024 à 20:50


Mais quand même, quand je lis ceci:

Citation Envoyé par OrthodoxWindows Voir le message
Surtout pas, il s'agit d'une mesure totalement absurde, qui ne peut que conduire à la mort de l'IA générative. Même des IA très modérés peuvent générer du contenu pouvant tomber sous le coup de la loi, c'est impossible d'empêcher cela.
Je suis dubitatif de cette réponse. Si un "produit" (ici l'IA), fournit un "service" défaillant (ici, les réponses que l'IA donne), il faut bien avoir un responsable vers qui pouvoir se retourner pour avoir une "indemnisation" en cas de mauvais fonctionnement dudit "service".

Parce que sinon, c'est la porte ouverte à tous les abus.

Si tu vas au restaurant, que tu commandes un steak au poivre, et qu'on te sers une pizza avariée, tu vas la manger sans rien dire ? Ou bien tu vas réclamer au "responsable" de ce restaurant des explications ?

Si tu vas à l'hopital pour te faire retirer un furoncle, et qu'on te retire un testicule à la place, là non plus tu ne vas rien dire ?

Si c'est le cas, je ne peux que de t'applaudire Tu est le plus tolérant du monde.


Je ne vois pas pourquoi on devrait "absoudre" de toute responsabilités le "responsable" d'une IA qui "Hallucine" (je ne parle pas des développeurs, mais des éditeurs de ces IA, ceux qui gagnent du fric en vomissant un gloubiboulga en remixant ce qu'ils ont volé un peu partout sur le web).

Et si cela ne peut que conduire à la mort de l'IA générative, ça n'est pas le soucis, ça ne sera ni la première ni la dernière révolution qui ne mène nulle part. Le monde continuera de tourner.

Citation Envoyé par OrthodoxWindows Voir le message
Pour le reste, je ne vois pas en quoi Grok est particulièrement un problème, vu qu'il existe plusieurs modèles open-source, de plus en plus performant.

Evidemment, si tu trouve normal que l'IA peut générer n'importe quoi, sans être responsable de rien, je comprend que tu ne vois pas le soucis avec Grok.

Ce n'est pas le soucis d'une IA ou d'une Autre, c'est tout simplement une "technologie" qui n'est pas encore au point, qu'on balance dans la nature en expérant qu'elle ne produise pas plus de problèmes qu'elle n'en résoud.

Si tu faisais de l'humour, je m'excuse sinon je vais tenter de rester "zen"

BàV et Peace & Love.
2  1 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 31/08/2024 à 21:25
Citation Envoyé par OuftiBoy Voir le message
Je suis dubitatif de cette réponse. Si un "produit" (ici l'IA), fournit un "service" défaillant (ici, les réponses que l'IA donne), il faut bien avoir un responsable vers qui pouvoir se retourner pour avoir une "indemnisation" en cas de mauvais fonctionnement dudit "service".

Parce que sinon, c'est la porte ouverte à tous les abus.
Cite moi un seul modèle d'IA générative à usage généraliste incapable de générer un contenu potentiellement passible de justice. Sachant que pour être dans le juste, il faut aussi inclure ce qui pourra être illégal dans le futur et dans certains régimes autoritaires.
De plus, la comparaison avec la pizza avariée n'a aucun sens, car là c'est plutôt le client lui-même qui réclame une pizza avarié. En cas d'IA générative, tenir l'entreprise/le développeur pour responsable de la génération d'un contenu est aussi absurde que de tenir pour responsable le fabricant d'une voiture à cause d'un conducteur ayant délibérément foncé sur un piéton (bah oui, on peu toujours dire que le fabricant avais juste à empêcher que la situation puisse se produire )


Evidemment, si tu trouve normal que l'IA peut générer n'importe quoi, sans être responsable de rien, je comprend que tu ne vois pas le soucis avec Grok.

Ce n'est pas le soucis d'une IA ou d'une Autre, c'est tout simplement une "technologie" qui n'est pas encore au point, qu'on balance dans la nature en espérant qu'elle ne produise pas plus de problèmes qu'elle n'en résoud.
Visiblement tu n'a pas compris mon propos : un modèle open-source, c'est un modèle avec le code-source distribué par le développeur, sous une licence libre. A ce moment là, le développeur ne peux pas être responsable du code qu'il publie, puisque la licence décharge le développeur de responsabilités ! Ou même l'entreprise, si c'est une entreprise qui publie le code source.

Et la seul fois où un tribunal a réussi à rendre illégal un code source (DeCSS), ça a donné ça.
1  0