IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Elon Musk aurait travaillé sur sa société d'IA tout en appelant publiquement à une pause dans le développement de l'IA ChatGPT
Il aurait même tenté de recruter chez OpenAI

Le , par Stéphane le calme

0PARTAGES

8  0 
Elon Musk, le PDG de Tesla, SpaceX et Twitter, est connu pour ses opinions controversées sur l’intelligence artificielle (IA). Il a souvent exprimé sa crainte que l’IA ne devienne trop puissante et ne menace l’humanité, et il a appelé à une régulation et à une pause dans la course à l’IA. Cependant, il semble que Musk ait également travaillé en secret sur sa propre société d’IA, nommée xAI, qu’il a annoncée le 12 juillet 2023. L’objectif : faire concurrence à OpenAI et à ChatGPT pour permettre aux humains de découvrir enfin ce que sont la vérité et la nature de l’univers. Selon le New Yorker, un mois après la publication de la lettre ouverte demandant la pause dans le développement de ChatGPT, Musk a contacté des chercheurs en IA au sujet de la création potentielle d'un nouveau laboratoire et discutait avec les investisseurs de Tesla et de SpaceX pour soutenir cet effort.

Début mars, OpenAI, soutenue par Microsoft, a dévoilé GPT-4, qui a séduit les utilisateurs par sa vaste gamme d'applications, allant de l'engagement des utilisateurs dans une conversation de type humain à la composition de chansons et au résumé de longs documents.

Face à son évolution rapide, un groupe d'experts en intelligence artificielle et de dirigeants de l'industrie, parmi lesquels Elon Musk, ont signé une lettre ouverte demandant une pause dans le développement de l'IA avancée jusqu'à ce que des protocoles de sécurité partagés pour de telles conceptions soient élaborés, mis en œuvre et contrôlés par des experts indépendants.

« Des systèmes d'IA puissants ne devraient être développés qu'une fois que nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables », peut-on lire dans la lettre.

La lettre détaille les risques potentiels pour la société et la civilisation que représentent les systèmes d'IA compétitifs pour les humains, sous la forme de perturbations économiques et politiques, et appelle les développeurs à travailler avec les décideurs politiques sur la gouvernance et les autorités de régulation.

Citation Envoyé par Lettre ouverte
Les systèmes d'IA contemporains deviennent aujourd'hui compétitifs pour les tâches générales, et nous devons nous poser la question : Devons-nous laisser les machines inonder nos canaux d'information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus. Les systèmes d'IA puissants ne doivent être développés que lorsque nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables. Cette confiance doit être bien justifiée et augmenter avec l'ampleur des effets potentiels d'un système. La récente déclaration de l'OpenAI concernant l'intelligence artificielle générale indique qu'"à un moment donné, il pourrait être important d'obtenir un examen indépendant avant de commencer à former les futurs systèmes, et pour les efforts les plus avancés d'accepter de limiter le taux de croissance du calcul utilisé pour créer de nouveaux modèles". Nous sommes d'accord. C'est maintenant qu'il faut agir.

C'est pourquoi nous demandons à tous les laboratoires d'IA d'interrompre immédiatement, pendant au moins six mois, la formation de systèmes d'IA plus puissants que le GPT-4. Cette pause devrait être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut être mise en place rapidement, les gouvernements devraient intervenir et instituer un moratoire.
En tout, ce sont plus de 1 000 cosignataires parmi lesquels figurent Emad Mostaque, PDG de Stability AI, des chercheurs de DeepMind, propriété d'Alphabet, et des poids lourds de l'IA, Yoshua Bengio, souvent considéré comme l'un des "parrains de l'IA", et Stuart Russell, pionnier de la recherche dans ce domaine.


Tandis qu'il demandait une pause dans le développement de l'IA d'OpenAI, Elon Musk préparait sa réponse

C'est ce que nous apprend le New Yorker. Selon le quotidien, en avril, soit un mois après la publication de la lettre ouverte demandant une pause dans le développement de ChatGPT, Musk travaillait déjà à la construction de xAI, recrutant auprès de concurrents majeurs, dont OpenAI, et même, selon quelqu'un au courant de la conversation, contactant la direction de Nvidia, le principal fabricant de puces utilisées dans l'IA.

Le mois où la lettre a été publiée, Musk a finalisé les inscriptions pour xAI. Il a peu parlé de la différence entre l'entreprise et les initiatives préexistantes de l'IA, mais les a généralement formulées en termes de concurrence. « Je vais créer une troisième option, même si elle sera lancée très tard dans la partie », a-t-il déclaré au Washington Post. « J'espère que cette troisième option fera plus de bien que de mal ». Grâce à l'IA. la recherche et le développement déjà en cours chez Tesla, et la mine de données qu'il contrôle désormais via Twitter (dont il a bloqué l'accès à OpenAI sous prétexte que cette dernière récupère des données pour former son chatbot), il pourrait avoir un certain avantage, car il applique ses sensibilités et sa vision du monde. à cette course.

Peu de temps après, Musk a confirmé qu'il voulait construire quelque chose qu'il appelle « TruthGPT », qu'il a décrit comme « une IA en quête de vérité maximale qui tente de comprendre la nature de l'univers ».

En juillet, Musk a annoncé la création de xAI, qui cherche noblement à « comprendre la vraie nature de l'univers », selon son site Internet.

Le site web de xAI présente une équipe de 12 hommes, dont Musk, avec des liens vers leurs comptes Twitter. Le site se vante de leurs réalisations et de leurs CV complets : « Notre équipe est dirigée par Elon Musk, PDG de Tesla et SpaceX. Nous avons précédemment travaillé chez DeepMind, OpenAI, Google Research, Microsoft Research, Tesla et l'Université de Toronto. Collectivement, nous avons contribué à certaines des méthodes les plus utilisées dans ce domaine, […]. Nous avons travaillé et dirigé le développement de certaines des plus grandes avancées dans ce domaine, notamment AlphaStar, AlphaCode, Inception, Minerva, GPT-3.5 et GPT-4. »

Une implication dans l'IA qui remonte à plusieurs années

Musk est impliqué dans l’intelligence artificielle depuis des années. En 2015, il faisait partie d’une poignée de leaders technologiques, dont Hoffman et Thiel, qui ont financé OpenAI, alors une initiative à but non lucratif (rappelons qu'OpenAI dispose désormais d’une filiale à but lucratif). OpenAI avait un énoncé de mission moins grandiose et plus prudent que celui de xAI : « faire progresser l’intelligence numérique de la manière la plus susceptible de profiter à l’humanité ».

Au cours des premières années d’OpenAI, Musk est devenu mécontent de l’entreprise. Il a déclaré que ses efforts chez Tesla pour intégrer l'IA a créé un conflit d’intérêts, et plusieurs personnes impliquées ont déclaré aux médias que c’était vrai. Cependant, ils ont également déclaré que Musk était frustré par son manque de contrôle et, comme Semafor l'a rapporté plus tôt cette année, qu'il avait tenté de reprendre OpenAI. Musk défend toujours sa place centrale dans les origines de l’entreprise, soulignant ses contributions financières à ses débuts (les chiffres exacts ne sont pas clairs : Musk a donné des estimations allant de cinquante millions à cent millions de dollars).

Tout au long de son implication, Musk a semblé préoccupé par le contrôle, le crédit et les rivalités. Il a tenu des propos incendiaires à l’encontre de Demis Hassabis, responsable de DeepMind A.I. de Google et, plus tard, sur les efforts concurrents de Microsoft. Il pensait qu’OpenAI n’était pas suffisamment compétitif, disant à un moment donné à ses collègues qu’il avait « 0 % » de chances d’être « pertinent ». Musk a quitté l’entreprise en 2018, revenant sur son engagement de financer davantage OpenAI, a expliqué l’une des personnes impliquées.

« En gros, il dit : 'Vous êtes tous une bande d'idiots', et il s'en va », a déclaré Hoffman. Son départ a été dévastateur. « C'était très difficile », a reconnu Altman, responsable d'OpenAI. « J’ai dû réorienter une grande partie de ma vie et de mon temps pour m’assurer que nous disposions de suffisamment de financement. » OpenAI est devenu un leader dans le domaine en introduisant ChatGPT l'année dernière. Musk a pris l’habitude de saccager l’entreprise, se demandant à plusieurs reprises, lors d’entretiens publics, pourquoi il n’a pas reçu de retour sur investissement, étant donné la branche à but lucratif de l’entreprise. « Si c’est légal, pourquoi tout le monde ne le fait-il pas ? » il a tweeté récemment.

Il est difficile de dire si l’intérêt de Musk pour l’I.A. est motivé par l’émerveillement scientifique et l’altruisme ou par le désir de dominer une industrie nouvelle et potentiellement puissante. Plusieurs entrepreneurs qui ont cofondé des entreprises avec Musk ont suggéré que l’arrivée de Google et de Microsoft dans le domaine en avait fait un nouveau ring, comme l’étaient auparavant l’espace et les véhicules électriques.

Musk a affirmé qu’il était motivé par sa peur du potentiel destructeur de la technologie.


En 2019, Musk a profité de son passage à la conférence South by Southwest (SXSW) qui se tenait à Austin, au Texas, pour réitérer ses avertissements concernant le danger de l’intelligence artificielle. D’après Musk, « l’IA est plus dangereuse que les ogives nucléaires » et il devrait exister un organisme de réglementation supervisant le développement de cette technologie.

« Je ne suis pas normalement un partisan de la réglementation et de la surveillance - je pense qu’on devrait généralement pécher par excès de minimisation de ces choses-là, mais il s’agit d’une situation où le public court un très grave danger », a prévenu Musk.

Source : New Yorker

Et vous ?

Quelle est votre opinion sur le projet de Musk et sur ses motivations ? Double jeu ou pas du tout ?
Que pensez-vous du fait qu'il ait cherché à recruter chez OpenAI un mois après avoir demandé à l'entreprise de suspendre le développement de chatGPT ?
Pensez-vous que l’IA soit une menace ou une opportunité pour l’humanité ?
Quels sont les principes et les normes que vous souhaiteriez voir appliquer au développement et à l’utilisation de l’IA ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 14/09/2023 à 17:09
Citation Envoyé par Mathis Lucas Voir le message

Que pensez-vous des déclarations d'Elon Musk ? Les risques qu'il évoque sont-ils exagérés ?
C'est marrant, de la part d'un bonhomme qui expérimente ses IA en beta depuis des années sur les routes! Ce type est un troll de génie!

Citation Envoyé par Mathis Lucas Voir le message

Que pensez-vous des propos de Bill Gates ? En quoi l'IA peut-elle aider à éradiquer la faim dans le monde ?
Oui, vendre de l'IA à toutes les sauces aidera certainement la faim (et la soif) insatiable de Bill Gates et de ses petits copains ultra-fortunés.

Non, sans rire, qui y croit?
2  0 
Avatar de onilink_
Membre émérite https://www.developpez.com
Le 26/08/2023 à 17:25
Étonnant n'est ce pas?

Pour rappel c'est ce que la plupart des commentaires de l'article en question prévoyaient.
1  0