IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le conseil d'administration d'OpenAI a retardé la promesse de l'IA en imposant des restrictions et des contrôles sur les projets estime Vinod Khosla
L'un des premiers investisseurs

Le , par Stéphane le calme

0PARTAGES

9  0 
OpenAI, l’organisation à but non lucratif fondée par des personnalités du monde de la technologie comme Elon Musk et Peter Thiel, avait pour objectif de créer une intelligence artificielle bénéfique pour l’humanité, sans être limitée par les intérêts commerciaux ou politiques. Toutefois, Vinod Khosla estime que le conseil d’administration d’OpenAI aurait entravé la réalisation de cette vision, en imposant des restrictions et des contrôles sur les chercheurs et les projets de l’organisation.

Ci-dessous un extrait de sa tribune après la crise au sein d'OpenAI.

J'ai été le premier investisseur en capital-risque dans OpenAI. Le drame du week-end a illustré mon affirmation selon laquelle les mauvais conseils d’administration peuvent nuire aux entreprises. Des titres fantaisistes comme « Directeur de la stratégie au Centre pour la sécurité et les technologies émergentes de Georgetown » peuvent donner une fausse impression de compréhension du processus complexe de l'innovation entrepreneuriale. La religion de « l'altruisme efficace » des membres du conseil d'administration d'OpenAI et sa mauvaise application auraient pu empêcher le monde de profiter des énormes avantages de l'intelligence artificielle. Imaginez des médecins gratuits pour tout le monde et des tuteurs quasi gratuits pour chaque enfant de la planète. C’est tout l’enjeu de la promesse de l’IA.

Les meilleures entreprises sont celles dont les visions sont dirigées et mises en œuvre par leurs entrepreneurs fondateurs, ceux qui mettent tout en jeu pour remettre en question le statu quo - des fondateurs comme Sam Altman - qui affrontent le risque de front et qui sont concentrés - donc totalement - pour rendre le monde meilleur. Les choses peuvent mal tourner et des abus se produisent, mais les avantages des bons fondateurs dépassent de loin les risques des mauvais. [...] Une vision globale qui change le monde est axiomatiquement risquée. Cela peut même faire peur. Mais c’est le seul levier grâce auquel la condition humaine s’est améliorée au cours de l’histoire. Et nous pourrions détruire ce potentiel avec des discours universitaires sur un risque existentiel insensé, à mon avis.

Il y a beaucoup d’avantages à la hausse, avec une infime chance de risque existentiel. À cet égard, cela ressemble davantage à ce que la machine à vapeur et le moteur à combustion interne ont fait à la puissance musculaire humaine. Avant les moteurs, nous avions des dispositifs passifs : leviers et poulies. Nous mangions de la nourriture pour obtenir de l’énergie et la dépensions pour notre fonction. Nous pourrions désormais alimenter ces moteurs en pétrole, en vapeur et en charbon, réduisant ainsi l’effort humain et augmentant la production pour améliorer la condition humaine. L’IA est l’analogue intellectuel de ces moteurs. Son pouvoir multiplicatif en matière d’expertise et de connaissances signifie que nous pouvons dépasser les limites actuelles de la capacité du cerveau humain, apportant ainsi de grands avantages à la race humaine.

Je comprends que l’IA n’est pas sans risques. Mais l’humanité est confrontée à de nombreux petits risques. Ils vont de risques infimes comme une IA sensible détruisant le monde ou un astéroïde frappant la Terre, à des risques moyens comme une guerre biologique mondiale de la part de nos adversaires, à des risques importants et imminents comme une Chine technologiquement supérieure, des cyberguerres et une IA persuasive manipulant les utilisateurs dans une démocratie, probablement à commencer par les élections américaines de 2024.


Faire du développement une priorité sans prendre le temps d'analyser les risques associés

OpenAI a lancé ChatGPT il y a moins d'un an et depuis lors, l'IA est la tendance technologique numéro un. Cela est particulièrement vrai chez Microsoft, qui a investi pour la première fois dans OpenAI en 2019 et a continué à investir des fonds dans l'entreprise tout en utilisant ChatGPT et d'autres services pour ses propres produits d'IA comme Bing Chat, Copilot, etc.

Mais Sam Altman ne veut pas en rester là; celui qui était alors PDG d'OpenAI cherchait un soutien financier supplémentaire auprès du principal investisseur Microsoft dans sa quête visant à créer des outils technologiques « superintelligents » qui seraient aussi intelligents que les humains. « La vision est de créer une intelligence artificielle générale (AGI), de trouver comment la rendre sûre et d'en déterminer les avantages », a déclaré Altman au Financial Times, soulignant qu'il passait également du temps à rechercher « comment construire une superintelligence » et les moyens de construire augmenter la puissance de calcul pour y parvenir.

Altman considère l'AGI comme la prochaine phase d'évolution de l'entreprise en plein essor.

« À l'heure actuelle, les gens [disent] 'vous avez ce laboratoire de recherche, vous avez cette API [logiciel], vous avez le partenariat avec Microsoft, vous avez ce truc ChatGPT, maintenant il y a une boutique GPT.' Mais ce ne sont pas vraiment nos produits », a déclaré Altman au quotidien. « Ce sont des canaux vers notre seul produit, qui est l’intelligence, l’intelligence magique dans le ciel. Je pense que c’est de cela que nous parlons ».

Quelques jours après ces propos, il a été licencié.

Des médias américains ont rapporté que le conseil d'OpenAI reprochait à Sam Altman de faire du développement de produits une priorité sans prendre pour autant le temps d'analyser les risques associés. D'ailleurs, la tribune de Vinod Khosla parle des « minuscules risques ont été amplifiés par des esprits amateurs de science-fiction et des journalistes à sensation ».

Pour Brendan Dolan-Gavitt, professeur d'informatique à l'université NYU Tandon, cette thèse des médias américains est validée par l'arrivée d'Emmett Shear, désigné pour succéder à Sam Altman. « Il a souvent exprimé sa préoccupation quant à la sûreté de l'intelligence artificielle », rappelle l'universitaire.

Les critiques des avancées en matière d'IA générative, en plus de parler de potentielles pertes massives d'emploi, évoquent également le côté militaire avec des armes létales autonomes qui pourraient s'attaquer aux humains, en plus des campagnes de désinformations à grande échelle lancées en s'appuyant sur ces bots IA. Dans sa tribune, Vinod Khosla estime « qu'il est temps de s'intéresser aux risques de l'IA, mais pas au point de ralentir le progrès et de nous priver de ses avantages ».

Les limites de la structure actuelle d'OpenAI

La branche à but lucratif est soumise à la mission à but non lucratif d'OpenAI. Sur la page « Notre structure » figurant sur le site Web d’OpenAI, nous avons des détails sur la structure complexe à but non lucratif/à profit plafonné d’OpenAI. Selon la page, la filiale à but lucratif d’OpenAI est « entièrement contrôlée » par l’organisation à but non lucratif OpenAI (qui est enregistrée dans le Delaware). Alors que la filiale à but lucratif OpenAI Global, LLC – qui semble avoir quitté la société en commandite OpenAI LP, précédemment annoncée en 2019, environ trois ans après la création de l'organisation à but non lucratif OpenAI originale – est « autorisée à réaliser et à distribuer des bénéfices, » elle est soumise à la mission de l'association.


Toutefois, les évènements qui se sont déroulés ce weekend on été révélateurs des limites de cette structure qui place sous le contrôle d'une holding à but non lucratif une société sur laquelle des acteurs financiers ont misé des milliards de dollars.

Les administrateurs « avaient perdu le sens des réalités », a estimé Carolina Milanesi, du cabinet Creative Strategies. « Comment pouvez-vous rester une société à but non lucratif une fois que vous acceptez ces montants de gens comme Microsoft? »

Il faut dire qu'OpenAI a déjà conclu un accord « pluriannuel » de 10 milliards de dollars avec Microsoft plus tôt cette année, développant un partenariat qui a débuté en 2019 avec seulement 1 milliard de dollars de la grande entreprise technologique.

Une absence de stratégie cohérente

Pour Timothy B. Lee, la structure n'est pas la seule à être en cause ici :

Les gens attribuent le chaos de ce week-end à l'étrange structure d'entreprise d'OpenAI, mais je pense que le principal problème est que leur stratégie est incohérente depuis longtemps. Il n’a jamais été clair dans quelle mesure l’accélération du développement de l’IA nous sauverait d’une IA dangereuse.
Il explique par exemple : « Je veux dire, en théorie, je peux imaginer une organisation qui promeut la sécurité en formant des modèles frontaliers, en les étudiant et en ne les publiant pas. Mais ce n’est pas ce que fait OpenAI et il est difficile de voir comment vous le financeriez ».

Et un autre de déclarer : « La structure d'entreprise d'OpenAI peut être un facteur, mais le véritable problème réside dans l'absence de stratégie cohérente. Accélérer simplement le développement de l’IA ne garantira pas notre sécurité contre les IA dangereuses. Nous avons besoin d’une approche globale qui aborde tous les aspects de l’impact de l’IA ».

« Microsoft vient de réaliser l'acquisition la moins chère jamais vue »

Sans en avoir été à l'origine, Microsoft peut récupérer Sam Altman ainsi que plusieurs de ses collaborateurs ayant choisi de quitter OpenAI. Le directeur général Satya Nadella s'est engagé à embaucher tous les salariés d'Openai qui choisiraient de démissionner, faute de départ des administrateurs.

Les employés ont d'ailleurs clairement fait savoir qu'ils sont motivés à le faire dans une lettre ouverte demandant la réinstallation de Sam Altman comme PDG de l'entreprise :

L'équipe de direction a suggéré que la voie la plus stabilisatrice - celle qui servirait le mieux notre mission, notre entreprise, nos parties prenantes, nos employés et le public - serait que vous démissionniez et que vous mettiez en place un conseil d'administration qualifié qui pourrait conduire l'entreprise vers la stabilité. . Les dirigeants ont travaillé avec vous 24 heures sur 24 pour trouver un résultat mutuellement acceptable. Pourtant, deux jours après votre décision initiale, vous avez de nouveau remplacé la PDG par intérim Mira Murati, au mépris des meilleurs intérêts de l'entreprise. Vous avez également informé l'équipe de direction que permettre la destruction de l'entreprise « serait conforme à la mission ».

Vos actions ont montré clairement que vous êtes incapable de superviser OpenAI. Nous sommes incapables de travailler pour ou avec des personnes qui manquent de compétence, de jugement et de souci pour notre mission et nos employés. Nous, soussignés, pouvons choisir de démissionner d'OpenAI et de rejoindre la filiale Microsoft nouvellement annoncée, dirigée par Sam Altman et Greg Brockman. Microsoft nous a assuré qu'il y aurait des postes pour tous les employés d'OpenAI dans cette nouvelle filiale si nous choisissions d'y adhérer. Nous prendrons cette mesure de manière imminente, à moins que tous les membres actuels du conseil d'administration ne démissionnent et que le conseil nomme deux nouveaux administrateurs indépendants principaux, tels que Bret Taylor et Will Hurd, et réintègre Sam Altman et Greg Brockman.
« Si Microsoft avait essayé d'acheter Openai, ils n'auraient jamais eu le feu vert des autorités de la concurrence », a indiqué Carolina Milanesi. De son côté, Paul Barrett, directeur adjoint du centre des affaires et des droits humains de l'université NYU Stern a déclaré : « Microsoft vient de réaliser l'acquisition la moins chère jamais vue ».

Altman est considéré comme la principale voix dans le domaine de l'IA depuis que son entreprise a lancé ChatGPT en novembre 2022. Le chatbot génératif d'IA a compté plus de 100 millions d'utilisateurs en moins d'un an. Après avoir publié ChatGPT l'année dernière, Altman a été mis sous les projecteurs. Il a été l’un des plus ardents partisans de l’intelligence artificielle, mais il a également lancé des appels en faveur d’une réglementation et averti que la technologie comporte des risques dans la mesure où elle remodèle la société. Il a témoigné devant le Congrès américain en mai sur la forme que devrait prendre la législation sur l’IA.

Cette aura lui aurait ouvert le chemin vers d’autres investisseurs ou partenaires dans le domaine du cloud. L'intelligence artificielle générative a besoin d'une puissance de calcul massive et spécialisée pour fonctionner, en particulier pour des millions de clients. Google ou Amazon essaieraient très certainement de lui proposer des offres qu'il ne pourrait refuser.

Microsoft qui était autrefois un partenaire proche se positionne désormais en rival. Les employés d’OpenAI envisagent de quitter le navire en signe de protestation pour rejoindre Sam Altman, notamment au sein de Microsoft.

Source : tribune Vinod Khosla

Et vous ?

Quelle est votre opinion sur la critique de Vinod Khosla à l’égard de OpenAI ? Est-elle fondée ou injuste ?
Pensez-vous que OpenAI a trahi sa vision originale en devenant une entreprise à but lucratif plafonné ? Quels sont les avantages et les inconvénients de ce changement de statut ?
Quel devrait être le rôle du conseil d’administration d'OpenAI dans la définition de la stratégie et de la gouvernance de l’entreprise ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Membre expert https://www.developpez.com
Le 22/11/2023 à 7:49
Je ne vois pas en quoi télécharger ses données ChatGPT est si critique.
J'imaginais que chatGPT avait surtout un intérêt immédiat, je pose une question j'ai une réponse (qui perd quasiment aussi vite sa valeur).
Quelles données seraient si importantes d'être récupérées?
2  0 
Avatar de Eye_Py_Ros
Nouveau membre du Club https://www.developpez.com
Le 22/11/2023 à 10:50
Plus Altaman s'exprime et plus on peut en apprendre sur ce qu'il ne maîtrise pas.
La situation inattendue ou l'instabilité même dans ce labo de recherche montre bien la fragilité de leurs avancées.

> Pensez-vous que l’IAG soit possible et souhaitable? Pourquoi?
Il y a quelques années on nous bassinait avec AI par ci , AI par là pendant la fièvre des neural network. Jusqu'à ce qu'assez de monde comprenne qu'il ne s'agisse que de système "expert". Qu'il n'y a pas vraiment d'intelligence à part celle donnée par son concepteur.

Depuis le mot AIG a fait son chemin pour distinguer les systèmes d'aujourd'hui vendus par des commerciaux à la vision futuriste SF.
Et bien je dirais qu’on loupe ici une étape par manque de clairvoyance sur un sujet nouveau.
Il y a L'AIG et ensuite la conscience artificielle.
Nous pouvons créer un genre d'AIG avec un simulateur de personnalité, qui ne sera pas plus qu'une boîte de conserve capable de manipuler les sentiments humains, mais elle ne sera jamais réellement capable de faire preuve d'une autonomie suffisante. Elle aura toujours des limites, et ne pourras jamais être réellement générale. Elle sera toujours, toujours limitée par des facteurs physiques notamment par l'architecture conçue par ses créateurs et l'environnement dans lequel elle évolue.

Tant que certains grands principes et mécanismes de la cognition et de l'information ne seront pas compris, nous n'atteindrons jamais la conscience artificielle, celle qui nous fait tant frémir. Nous n'aurions tout au plus des marionnettes faisant croire qu'elles sont douées d'émotion, mais sans capable d'expérimenter l'empathie. Faire un LLM avec toujours plus de couches avec pour le faire tourner 3 datacenter et un réacteur nucléaire pour l'alimenter n'en fera jamais une conscience artificielle. Pour rappel notre cerveau ne consomme pas plus de 100W pour traiter l'information et nous sommes a minima capables de créativité même si parfois il faut des années de réflexions.

Est-ce que ce genre de création est souhaitable ? je dirai pour l'IAG ou une machine capable de remplir les fonctionnalités d'un major d'homme; ce type de création est inéluctable. C'est bien la quête de la robotique depuis ces débuts.
Le problème n'est pas tant son existence, mais son utilisation.
La connaissance, la science et l'ingénierie sont des outils toujours plus tranchants de génération en génération.

La connaissance de la physique nucléaire, à permis de faire par exemple, du kaboom, ou bien des scanners qui permet de sauver des vies.
Et même les kaboom, peuvent être utilisé pour sceller un puis de gaz par exemple.

L'horreur qui découle de certains outils n'est du qu'a nous même. Un outil reste neutre tant qu'il est posé sur la table.
La vraie question est qui tient le manche et dans quel but ?

>Quels sont les principaux défis et opportunités que l’IAG pourrait apporter à l’humanité?

En un mot La Démocratie. Ceux qui voudront nous faire croire qu'ils ont inventé une IAG capable de remplacer les dirigeants du monde et imposer des "solutions miracles pour résoudre tous les problèmes" ne feront qu'inventer le technolitarisme.

Le paradoxe, fabriquer une machine qui invente des solutions dont nous serions incapables d'en saisir la portée. Nous aurions eu la capacité d'inventer une machine capable de réfléchir, mais nous serions incapables de réfléchir à nos propres problèmes ?
Que les solutions de cette machine sont miraculeuses et que nous devrions les appliquer comme un dogme ?

Ce genre de machine aurait besoin de contrôle dirions nous. Mais en quelle vertu un groupe d'individu pourrait contrôler les valeurs de cette machine ?
L'imposition de la loi par l'IAG ne serait qu'une marionnette de couverture pour un groupe d'individu souhaitant imposer leur régime totalitaire sur le reste du monde.

>Comment garantir que l’IAG soit alignée sur les valeurs et les intérêts des humains?
Les 3 lois de la robotique sont la leçon d'une piste imaginée sur ce type de problème. Comment inclure dans le code des valeurs morales définissable ?
((L'open source est aussi nécessaire pour montrer une volonté de convergence d'intérêt face à l'humanité, elle n'est pas une solution, mais une démarche))

>Quel rôle devraient jouer les gouvernements, les entreprises, les chercheurs, les citoyens et les médias dans le développement et la régulation de l’IAGI?
Garantir que la démocratie ne se fera jamais dévorer par le technolitarisme.

>Quelles sont les sources d’information que vous consultez pour vous informer sur l’AGI? Faites-vous confiance à ces sources? Pourquoi?

Aucune, non, la première iag sera une fake news jusqu'à ce que le buzzzz médiatique face plouff de lui-même ou qu'un produit utile commercialisé voit le jour. En attendant ce n'est que la robotique qui poursuit son chemin sous une forme ou une autre.
Beaucoup d'entre nous ont testé GPT en jouant à un test de Turing. Je pense que beaucoup d'entre nous ont vite vu les limites de ce système. La rapidité avec lequel nous avons pu jouer et tester les limites d'un tel système est une chose plutôt positive.
2  0 
Avatar de kmedghaith
Membre confirmé https://www.developpez.com
Le 30/04/2024 à 9:29
GPT-5 sera beaucoup plus intelligent que GPT-4 et GPT-6 sera beaucoup plus intelligent que GPT-5
et GPT-7 sera beaucoup plus intelligent que GPT-6. C'est facile comme jeux.
Sinon que vend ce monsieur déjà ?
1  0 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 30/04/2024 à 12:36
Citation Envoyé par kmedghaith Voir le message
et GPT-7 sera beaucoup plus intelligent que GPT-6. C'est facile comme jeux.
Sinon que vend ce monsieur déjà ?
Nos données.
1  0 
Avatar de Aspartame
Membre confirmé https://www.developpez.com
Le 21/11/2023 à 19:47
a été ( indicatif )
0  0 
Avatar de PomFritz
Membre confirmé https://www.developpez.com
Le 22/11/2023 à 12:00
Citation Envoyé par Stéphane le calme Voir le message

Vinod Khosla estime que le conseil d’administration d’OpenAI aurait entravé la réalisation de cette vision, en imposant des restrictions et des contrôles sur les chercheurs et les projets de l’organisation.

Ci-dessous un extrait de sa tribune après la crise au sein d'OpenAI.

J'ai été le premier investisseur en capital-risque dans OpenAI. Le drame du week-end a illustré mon affirmation selon laquelle les mauvais conseils d’administration peuvent nuire aux entreprises. Des titres fantaisistes comme « Directeur de la stratégie au Centre pour la sécurité et les technologies émergentes de Georgetown » peuvent donner une fausse impression de compréhension du processus complexe de l'innovation entrepreneuriale. La religion de « l'altruisme efficace » des membres du conseil d'administration d'OpenAI et sa mauvaise application auraient pu empêcher le monde de profiter des énormes avantages de l'intelligence artificielle. Imaginez des médecins gratuits pour tout le monde et des tuteurs quasi gratuits pour chaque enfant de la planète. C’est tout l’enjeu de la promesse de l’IA.
Je dis bravo quand le capital-risque s'occupe du sort des enfants dans le monde...
0  0 
Avatar de
https://www.developpez.com
Le 22/11/2023 à 15:16
On devrait lui dire : "oh calme toi ! Non tu n'as pas tous les droits.".
0  0 
Avatar de Matthieu_26
Membre régulier https://www.developpez.com
Le 22/11/2023 à 19:35
Ça te barbera - épisode 69

Scène 1 : Dans le salon
Satya est en sanglot dans toute la scène...

Satya : (soupir fort) - Franchement, sur ce coup là, tu m'as déçu, Sam... T'était-il vraiment impossible d'agir autrement que tel que tu aurais pu le faire autrement ?

Sam : Ecoutes… Satya

Satya : Réponds moi, Sam...

Sam: Satya, j'ai pas peur de te le dire en face : Si j'ai agi ainsi, c'est parce que je ne pouvais pas agir autrement que tel que je l'ai fait. Tu me comprends ?

Satya : Bien sûr que je te comprends ! Mais, où veux-tu en venir ?

Sam : Je veux en venir que si j'ai agit de la sorte, c'est que…

Satya : C'est que quoi ?

Sam : C'est que je ne pouvais pas agir autrement que tel que je l'ai fait. Tu me comprends ?

Satya : C'était donc ça ?

Sam : Ouais !

Satya : Sam , comprends moi, mets toi donc à ma place !

Sam : Que je me mette à ta place ?

Satya : Ouais !

Sam : Ok ! (étouffé)
La suite dans le prochain épisode...
0  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 26/12/2023 à 13:40
Ancienne économie:

La valorisation d'une entreprise était en rapport avec le succès commerciale de cette dernière: Plus elle faisait des bénéfices, plus elle valait chère!

Nouvelle économie:

"OpenAI en pourparlers pour lever de nouveaux fonds pour une valorisation à de 100 milliards de dollars"... Ce qui veut dire? La valeur de l'entreprise repose sur rien! Pas sur son succès, mais simplement sur le nombre de gogos qui sont d'accord de risquer leur fric dans l'affaire...

Quelle économie a le plus de chance de finir dans le mur?
0  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 03/01/2024 à 7:40
Citation Envoyé par Mathis Lucas Voir le message
L'un des plus gros problèmes de l'absence de raisonnement est que cela rend les grands modèles de langage vulnérables aux hallucinations, aux biais systématiques et d'autres pièges. Cette lacune signifie que l'on ne peut pas faire complètement confiance à l'IA, car elle peut présenter des informations erronées comme étant vraies.
On ne peut faire complètement confiance à une seule source, qu'elle soit informatique, humaine ou journalistique, c'est pour ça qu'il faut recroiser les sources.
Espérer pouvoir se fier à 100% à une IA est illusoire, même si une tonne d'entreprises essayent de vous le vendre.
0  0