IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des chercheurs d'OpenAI auraient envoyé au conseil d'administration sortant une lettre l'avertissant d'une découverte majeure en matière d'IA
Et de la menace que cela représente pour l'humanité

Le , par Mathis Lucas

108PARTAGES

3  0 
Les chercheurs d'OpenAI auraient fait une découverte majeure qui pourrait avoir des conséquences mondiales dans le cadre d'un projet baptisé Q*. Ils auraient envoyé une lettre au conseil d'administration sortant dans lequel ils font part de leur découverte ainsi que de leurs préoccupations. Ils explorent la nature de la découverte et ses implications, en mettant l'accent sur les dangers potentiels qu'elle peut représenter pour l'humanité. La lettre met en garde contre la commercialisation de la technologie sans en mesurer les conséquences. En outre, la lettre aurait joué un rôle clé dans le licenciement d'Altman et révèle de profonds désaccords au sein de l'entreprise.

OpenAI aurait développé un algorithme d'IA proche d'une "superintelligence"

Le but ultime d'OpenAI est de parvenir à une forme d'intelligence générale artificielle (AGI). Pour y arriver, le laboratoire d'IA bénéficie d'un soutien financier important de la part du géant des logiciels Microsoft et d'autres investisseurs en capital-risque. Après avoir publié en mars GPT-4, un puissant grand modèle de langage qui a fait preuve de capacités impressionnantes sur un certain nombre de benchmarks, OpenAI a récemment confirmé qu’il avait commencé le travail sur son prochain modèle d'IA, GPT-5. L'entreprise espère que Microsoft, son principal bailleur de fonds, va injecter plus d'argent dans ses recherches et lui fournir plus de puissance de calcul.


Sam Altman, PDG d'OpenAI, a déclaré à l'époque : « il y a un long chemin à parcourir et beaucoup de calcul à réaliser entre notre niveau actuel et l'AGI. Les dépenses de formation sont tout simplement énormes ». Les déclarations d'Altman sur OpenAI et l'AGI manquent cruellement d'éléments de précision, pour ne pas dire qu'elles sont très évasives. Mais de nouvelles fuites signalent que les chercheurs d'OpenAI, dirigés par le scientifique en chef Ilya Sutskever, ont réalisé une percée majeure au cours des derniers mois. Cette "importante" découverte serait intervenue dans le cadre d'un projet secret connu sous le nom de code interne Q* (Q-Star).

Des membres du personnel d'OpenAI au fait du projet estiment qu'à l'heure actuelle, Q* est ce qui se rapproche le plus d'une AGI. Dans un rapport publié par Reuters aujourd'hui, les sources interrogées décrivent le nouvel algorithme d'IA comme "une découverte puissante". L'une des sources a déclaré : « avec de vastes ressources informatiques, le nouveau modèle a pu résoudre certains problèmes mathématiques. Bien qu'il ne soit capable de traiter que des problèmes mathématiques de même niveau que celui des élèves de l'école primaire, le simple fait d'avoir réussi ces tests a rendu les chercheurs très optimistes quant au succès futur du projet Q* ».

OpenAI définit l'AGI comme un système autonome qui surpasse les humains dans la plupart des tâches à valeur économique. En outre, les chercheurs considèrent les mathématiques comme une frontière pour le développement de l'IA. Actuellement, l'IA générative est efficace pour l'écriture et la traduction des langues en prédisant statistiquement le mot suivant, et les réponses à une même question peuvent varier considérablement. Mais elle affiche de piètres performances lorsqu'elle est soumise à des tests mathématiques. Qu'il s'agisse du chatbot ChatGPT d'OpenAI ou Bard de Google, tous galèrent face aux problèmes mathématiques de base.

La capacité à résoudre des problèmes mathématiques pour lesquels il n'existe qu'une seule réponse correcte indique que l'IA est capable de performances proches du niveau de l'intelligence humaine. Selon les chercheurs en IA, cela pourrait s'appliquer à de nouvelles recherches scientifiques. Contrairement à une calculatrice qui ne peut résoudre qu'un nombre limité d'opérations, l'IA peut généraliser, apprendre et comprendre. Toutefois, malgré ses prouesses peu impressionnantes dans les tests mathématiques, Q* semble être suffisamment puissant pour exacerber les inquiétudes des chercheurs d'OpenAI sur les dangers potentiels que représente l'IA.

Un projet qui suscite des craintes et donne lieu à des désaccords profonds

Préoccupés par leur découverte, certains membres de l'équipe de recherches d'OpenAI auraient envoyé au conseil d'administration une lettre pour mettre en garde contre une commercialisation rapide du nouveau modèle d'IA qui, selon eux, pourrait menacer l'humanité. D'ailleurs, les sources interrogées indiquent que la lettre a joué un rôle déterminant dans la décision du conseil d'administration de congédier Altman à la surprise générale. Le conseil d’administration a expliqué avoir perdu confiance en la capacité d'Altman à diriger le laboratoire d'IA. L'éviction d'Altman du poste de PDG d'OpenAI et son licenciement ont provoqué une onde de choc dans l'industrie.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 24/11/2023 à 15:25
Le jour où une IA réellement puissante tombe entre de mauvaises mains ça va faire de gros dégâts à l'Humanité entière.
1  0