IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Elon Musk aurait travaillé sur sa société d'IA tout en appelant publiquement à une pause dans le développement de l'IA ChatGPT
Il aurait même tenté de recruter chez OpenAI

Le , par Stéphane le calme

53PARTAGES

8  0 
Elon Musk aurait travaillé sur sa société d'IA tout en appelant publiquement à une pause dans le développement de l'IA,
en juillet il a présenté xAI

Elon Musk, le PDG de Tesla, SpaceX et Twitter, est connu pour ses opinions controversées sur l’intelligence artificielle (IA). Il a souvent exprimé sa crainte que l’IA ne devienne trop puissante et ne menace l’humanité, et il a appelé à une régulation et à une pause dans la course à l’IA. Cependant, il semble que Musk ait également travaillé en secret sur sa propre société d’IA, nommée xAI, qu’il a annoncée le 12 juillet 2023. L’objectif : faire concurrence à OpenAI et à ChatGPT pour permettre aux humains de découvrir enfin ce que sont la vérité et la nature de l’univers. Selon le New Yorker, un mois après la publication de la lettre ouverte demandant la pause dans le développement de ChatGPT, Musk a contacté des chercheurs en IA au sujet de la création potentielle d'un nouveau laboratoire et discutait avec les investisseurs de Tesla et de SpaceX pour soutenir cet effort.

Début mars, OpenAI, soutenue par Microsoft, a dévoilé GPT-4, qui a séduit les utilisateurs par sa vaste gamme d'applications, allant de l'engagement des utilisateurs dans une conversation de type humain à la composition de chansons et au résumé de longs documents.

Face à son évolution rapide, un groupe d'experts en intelligence artificielle et de dirigeants de l'industrie, parmi lesquels Elon Musk, ont signé une lettre ouverte demandant une pause dans le développement de l'IA avancée jusqu'à ce que des protocoles de sécurité partagés pour de telles conceptions soient élaborés, mis en œuvre et contrôlés par des experts indépendants.

« Des systèmes d'IA puissants ne devraient être développés qu'une fois que nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables », peut-on lire dans la lettre.

La lettre détaille les risques potentiels pour la société et la civilisation que représentent les systèmes d'IA compétitifs pour les humains, sous la forme de perturbations économiques et politiques, et appelle les développeurs à travailler avec les décideurs politiques sur la gouvernance et les autorités de régulation.

Citation Envoyé par Lettre ouverte
Les systèmes d'IA contemporains deviennent aujourd'hui compétitifs pour les tâches générales, et nous devons nous poser la question : Devons-nous laisser les machines inonder nos canaux d'information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus. Les systèmes d'IA puissants ne doivent être développés que lorsque nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables. Cette confiance doit être bien justifiée et augmenter avec l'ampleur des effets potentiels d'un système. La récente déclaration de l'OpenAI concernant l'intelligence artificielle générale indique qu'"à un moment donné, il pourrait être important d'obtenir un examen indépendant avant de commencer à former les futurs systèmes, et pour les efforts les plus avancés d'accepter de limiter le taux de croissance du calcul utilisé pour créer de nouveaux modèles". Nous sommes d'accord. C'est maintenant qu'il faut agir.

C'est pourquoi nous demandons à tous les laboratoires d'IA d'interrompre immédiatement, pendant au moins six mois, la formation de systèmes d'IA plus puissants que le GPT-4. Cette pause devrait être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut être mise en place rapidement, les gouvernements devraient intervenir et instituer un moratoire.
En tout, ce sont plus de 1 000 cosignataires parmi lesquels figurent Emad Mostaque, PDG de Stability AI, des chercheurs de DeepMind, propriété d'Alphabet, et des poids lourds de l'IA, Yoshua Bengio, souvent considéré comme l'un des "parrains de l'IA", et Stuart Russell, pionnier de la recherche dans ce domaine.


Tandis qu'il demandait une pause dans le développement de l'IA d'OpenAI, Elon Musk préparait sa réponse

C'est ce que nous apprend le New Yorker. Selon le quotidien, en avril, soit un mois après la publication de la lettre ouverte demandant une pause dans le développement de ChatGPT, Musk travaillait déjà à la construction de xAI, recrutant auprès de concurrents majeurs, dont OpenAI, et même, selon quelqu'un au courant de la conversation, contactant la direction de Nvidia, le principal fabricant de puces utilisées dans l'IA.

Le mois où la lettre a été publiée, Musk a finalisé les inscriptions pour xAI. Il a peu parlé de la différence entre l'entreprise et les initiatives préexistantes de l'IA, mais les a généralement formulées en termes de concurrence. « Je vais créer une troisième option, même si elle sera lancée très tard dans la partie », a-t-il déclaré au Washington Post. « J'espère que cette troisième option fera plus de bien que de mal ». Grâce à l'IA. la recherche et le développement déjà en cours chez Tesla, et la mine de données qu'il contrôle désormais via Twitter (dont il a bloqué l'accès à OpenAI sous prétexte que cette dernière récupère des données pour former son chatbot), il pourrait avoir un certain avantage, car il applique ses sensibilités et sa vision du monde. à cette course.

Peu de temps après, Musk a confirmé qu'il voulait construire quelque chose qu'il appelle « TruthGPT », qu'il a décrit comme « une IA en quête de vérité maximale qui tente de comprendre la nature de l'univers ».

En juillet, Musk a annoncé la création de xAI, qui cherche noblement à « comprendre la vraie nature de l'univers », selon son site Internet.

Le site web de xAI présente une équipe de 12 hommes, dont Musk, avec des liens vers leurs comptes Twitter. Le site se vante de leurs réalisations et de leurs CV complets : « Notre équipe est dirigée par Elon Musk, PDG de Tesla et SpaceX. Nous avons précédemment travaillé chez DeepMind, OpenAI, Google Research, Microsoft Research, Tesla et l'Université de Toronto. Collectivement, nous avons contribué à certaines des méthodes les plus utilisées dans ce domaine, […]. Nous avons travaillé et dirigé le développement de certaines des plus grandes avancées dans ce domaine, notamment AlphaStar, AlphaCode, Inception, Minerva, GPT-3.5 et GPT-4. »

Une implication dans l'IA qui remonte à plusieurs années

Musk est impliqué dans l’intelligence artificielle depuis des années. En 2015, il faisait partie d’une poignée de leaders technologiques, dont Hoffman et Thiel, qui ont financé OpenAI, alors une initiative à but non lucratif (rappelons qu'OpenAI dispose désormais d’une filiale à but lucratif). OpenAI avait un énoncé de mission moins grandiose et plus prudent que celui de xAI : « faire progresser l’intelligence numérique de la manière la plus susceptible de profiter à l’humanité ».

Au cours des premières années d’OpenAI, Musk est devenu mécontent de l’entreprise. Il a déclaré que ses efforts chez Tesla pour intégrer l'IA a créé un conflit d’intérêts, et plusieurs personnes impliquées ont déclaré aux médias que c’était vrai. Cependant, ils ont également déclaré que Musk était frustré par son manque de contrôle et, comme Semafor l'a rapporté plus tôt cette année, qu'il avait tenté de reprendre OpenAI. Musk défend toujours sa place centrale dans les origines de l’entreprise, soulignant ses contributions financières à ses débuts (les chiffres exacts ne sont pas clairs : Musk a donné des estimations allant de cinquante millions à cent millions de dollars).

Tout au long de son implication, Musk a semblé préoccupé par le contrôle, le crédit et les rivalités. Il a tenu des propos incendiaires à l’encontre de Demis Hassabis, responsable de DeepMind A.I. de Google et, plus tard, sur les efforts concurrents de Microsoft. Il pensait qu’OpenAI n’était pas suffisamment compétitif, disant à un moment donné à ses collègues qu’il avait « 0 % » de chances d’être « pertinent ». Musk a quitté l’entreprise en 2018, revenant sur son engagement de financer davantage OpenAI, a expliqué l’une des personnes impliquées.

« En gros, il dit : 'Vous êtes tous une bande d'idiots', et il s'en va », a déclaré Hoffman. Son départ a été dévastateur. « C'était très difficile », a reconnu Altman, responsable d'OpenAI. « J’ai dû réorienter une grande partie de ma vie et de mon temps pour m’assurer que nous disposions de suffisamment de financement. » OpenAI est devenu un leader dans le domaine en introduisant ChatGPT l'année dernière. Musk a pris l’habitude de saccager l’entreprise, se demandant à plusieurs reprises, lors d’entretiens publics, pourquoi il n’a pas reçu de retour sur investissement, étant donné la branche à but lucratif de l’entreprise. « Si c’est légal, pourquoi tout le monde ne le fait-il pas ? » il a tweeté récemment.

Il est difficile de dire si l’intérêt de Musk pour l’I.A. est motivé par l’émerveillement scientifique et l’altruisme ou par le désir de dominer une industrie nouvelle et potentiellement puissante. Plusieurs entrepreneurs qui ont cofondé des entreprises avec Musk ont suggéré que l’arrivée de Google et de Microsoft dans le domaine en avait fait un nouveau ring, comme l’étaient auparavant l’espace et les véhicules électriques.

Musk a affirmé qu’il était motivé par sa peur du potentiel destructeur de la technologie.


En 2019, Musk a profité de son passage à la conférence South by Southwest (SXSW) qui se tenait à Austin, au Texas, pour réitérer ses avertissements concernant le danger de l’intelligence artificielle. D’après Musk, « l’IA est plus dangereuse que les ogives nucléaires » et il devrait exister un organisme de réglementation supervisant le développement de cette technologie.

« Je ne suis pas normalement un partisan de la réglementation et de la surveillance - je pense qu’on devrait généralement pécher par excès de minimisation de ces choses-là, mais il s’agit d’une situation où le public court un très grave danger », a prévenu Musk.

Source : New Yorker

Et vous ?

Quelle est votre opinion sur le projet de Musk et sur ses motivations ? Double jeu ou pas du tout ?
Que pensez-vous du fait qu'il ait cherché à recruter chez OpenAI un mois après avoir demandé à l'entreprise de suspendre le développement de chatGPT ?
Pensez-vous que l’IA soit une menace ou une opportunité pour l’humanité ?
Quels sont les principes et les normes que vous souhaiteriez voir appliquer au développement et à l’utilisation de l’IA ?
Vous avez lu gratuitement 1 922 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 14/09/2023 à 17:09
Citation Envoyé par Mathis Lucas Voir le message
Que pensez-vous des déclarations d'Elon Musk ? Les risques qu'il évoque sont-ils exagérés ?
C'est marrant, de la part d'un bonhomme qui expérimente ses IA en beta depuis des années sur les routes! Ce type est un troll de génie!

Citation Envoyé par Mathis Lucas Voir le message
Que pensez-vous des propos de Bill Gates ? En quoi l'IA peut-elle aider à éradiquer la faim dans le monde ?
Oui, vendre de l'IA à toutes les sauces aidera certainement la faim (et la soif) insatiable de Bill Gates et de ses petits copains ultra-fortunés.

Non, sans rire, qui y croit?
2  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 23/10/2025 à 0:05
Belle hypocrisie ou naïveté de ces 800 "bien-pensants", c'est selon!

1. Parmi les 800 signataires, il y a de nombreux "chercheurs" qui ont été à l'origine de l'IA. Si il y avait des risques, il ne fallait pas commencer ce genre de développement!

2. Une fois qu'une découverte arrive dans les mains des financiers, plus rien ne l'arrête... C'est la fuite en avant... L'appel de l'argent balaie tout: L'éthique, la morale, la moindre précaution

3. Il ira de l'IA comme des armes de guerre: Il n'y a pas un seul exemple dans l'histoire d'une arme qui aurait été inventée et qui n'a pas fini par être utilisée pour tuer son prochain.
2  0 
Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 23/10/2025 à 5:40
C'est donc 800 personnes qui ne savent même pas ce qu'est l'IA, car jusqu'à preuve du contraire, l'IA n'est en rien intelligente et les modèles actuels n'arriveront jamais à cet état.
2  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 23/10/2025 à 8:44
Citation Envoyé par jnspunk Voir le message
C'est donc 800 personnes qui ne savent même pas ce qu'est l'IA, car jusqu'à preuve du contraire, l'IA n'est en rien intelligente et les modèles actuels n'arriveront jamais à cet état.
Ils le savent très bien, ne t'en fais pas.

C'est juste que si la hype descend, la bulle éclate. Alors il faut faire du bruit et agiter les bras très fort pour que les gens continuent d'investir: "ouuuuuuuh!!! L'IA est intelligente et dangereuse!!!"
2  0 
Avatar de onilink_
Membre émérite https://www.developpez.com
Le 26/08/2023 à 17:25
Étonnant n'est ce pas?

Pour rappel c'est ce que la plupart des commentaires de l'article en question prévoyaient.
1  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 23/10/2025 à 22:27
Je ne doute pas que certains y croient réellement. Pour ceux-là, je penche pour le défaut de conception : ce n'est pas avec les technos actuelles que ça arrivera, et croire le contraire c'est encore se bercer de "si" plutôt que de regarder la pratique de manière objective (i.e. sans biais de sélection dans les arguments).

Pour d'autres, c'est peut-être l'occasion de se donner une excuse de ne pas réussir à faire mieux : on entrevoit l'échec futur des promesses, et pour éviter le backlash on met en place une limite artificielle pour qu'on puisse dire ensuite "je n'ai pas échoué, j'ai suivi les recommandations de ne pas le faire".

Pour d'autres encore, comme le mentionne kain_tn, c'est pour jouer sur les marchés, mais j'y touche pas donc je serais bien incapable de dire plus là-dessus, surtout pas pour les faire aller dans quel sens.

Ce que je retiens, c'est qu'on parle de 800 signataires dont des parrains de l'IA, ça fait très important comme ça, mais in fine on site 2-3 personnes qu'on entend toujours pour ça... Ce n'est pas comme si certains disaient le contraire auparavant et avaient "ouvert les yeux" pour se joindre au mouvement. Là il y aurait du neuf.

Au final on nous reparle de gens dont on a déjà parlé pour les même choses, il s'agit juste de leur nouvelle action dans ce sens. Rien de nouveau sous le soleil... Et y voir la royauté ne donne que du poids médiatique, certainement pas argumentaire.
1  0 
Avatar de doublex
Membre confirmé https://www.developpez.com
Le 23/10/2025 à 21:11
https://www.developpez.net/forums/d1...e/#post7820383
0  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 24/10/2025 à 10:29
Citation Envoyé par Matthieu Vergne Voir le message
[...]Pour d'autres, c'est peut-être l'occasion de se donner une excuse de ne pas réussir à faire mieux : on entrevoit l'échec futur des promesses, et pour éviter le backlash on met en place une limite artificielle pour qu'on puisse dire ensuite "je n'ai pas échoué, j'ai suivi les recommandations de ne pas le faire".[...]
Je n'avais pas envisagé ce point. C'est une véritable possibilité, surtout si on prend OpenAI qui fait des pieds et des mains pour se sortir des promesses faites aux actionnaires.

Au final, je pense que c'est sans doute une combinaison des trois points que tu as cité: on a les pigeons, la mauvaise foi, et les spéculateurs (on est vendredi, donc j'ai le droit)
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 24/10/2025 à 10:51
Citation Envoyé par Stéphane le calme Voir le message
Peut-on réellement freiner une technologie mondiale sans créer de clandestinité scientifique ?
Non on ne peut pas empêcher le développement d'une technologie qui peut donner un avantage lors d'une guerre.
Des grands pays (comme les USA par exemple) vont développer la technologie en secret.
Si la Chine interdisait aux entreprises chinoises d'essayer de créer une super-intelligence, ça motiverait encore plus des entreprises US ainsi que l'état US d'y arriver.

Citation Envoyé par Stéphane le calme Voir le message
Les États ont-ils encore le pouvoir de contrôler des entreprises privées capables de rivaliser avec eux sur le plan technologique ?
En principe oui, il faut juste mettre en place des lois pour limiter les entreprises.
Par contre à l'échelle mondiale c'est compliqué.

Citation Envoyé par Stéphane le calme Voir le message
Les « pères de l’IA » sont-ils les mieux placés pour définir les limites de ce qu’ils ont eux-mêmes créé ?
Les pères de l'IA ne sont pas spéciaux, si ils n'avaient pas travaillé dans l'IA, d'autres l'auraient fait et on en serait au même point.

Citation Envoyé par Stéphane le calme Voir le message
Le risque existentiel de l’IA est-il plus urgent que les risques déjà visibles : désinformation, chômage, dépendance numérique ?
Sans l'IA il y aurait autant de désinformation, autant de chômage, autant de dépendance numérique.
Enfin, la différence ne serait pas radicale.

Citation Envoyé par Stéphane le calme Voir le message
Meghan Markle
Ils ont sûrement peur d'un scénario à la Terminator.
Ça ne coûte rien de dire "on devrait interdire le développement d’une intelligence artificielle super-intelligente", comme ça si jamais une entité y arrive et que ça a des conséquences catastrophiques sur le monde, les acteurs du début pourront dire "On vous l'avait dit !".
0  0 
Avatar de pierre.E
Membre confirmé https://www.developpez.com
Le 30/10/2025 à 19:39
"La présence de figures publiques comme Prince Harry et Meghan Markle"

flipper le dauphin et oui-oui auraient eu plus de poids
0  0