IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La startup Safe Superintelligence (SSI) cofondée par l'ancien scientifique en chef d'OpenAI leve 1 milliard de dollars, soit 100 millions par employé, pour développer son AGI surhumaine

Le , par Jade Emy

10PARTAGES

5  0 
Safe Superintelligence (SSI), la nouvelle startup d'IA axée sur la sécurité de Sutskever, cofondateur d'OpenAI, lève 1 milliard de dollars. SSI, créée il y a trois mois, est évaluée à 5 milliards de dollars, selon certaines sources. Les fonds seront utilisés pour acquérir de la puissance de calcul et des talents de haut niveau. Parmi les investisseurs figurent Andreessen Horowitz et Sequoia Capital.

Le 15 mai 2024, Ilya Sutskever, cofondateur et ancien scientifique en chef d'OpenAI, a annoncé qu'il quittait l'entreprise après une dizaine d'années. Il avait indiqué qu'il travaillait sur un nouveau projet qui lui tient personnellement à cœur, sans donné plus détails. Il avait même déclaré : "Je suis convaincu qu'OpenAI construira une AGI à la fois sûre et bénéfique." Pour rappel, il était l'un des quatre membres du conseil d'administration qui ont voté en faveur de l'éviction du PDG Sam Altman, avant de le réintégrer rapidement.

Un mois plus tard, il dévoilait son nouveau projet : une nouvelle startup baptisée Safe Superintelligence Inc. (SSI) avec "un seul objectif et un seul produit", créer une superintelligence sûre et puissante. Lors de l'annonce, il promettait que sa nouvelle société donnera la priorité à la sécurité plutôt qu'aux "pressions commerciales", critiquant ainsi la nouvelle direction donnée par Sam Altman à OpenAI. Dans ce sens, son équipe avait assuré que la recherche de capitaux ne sera pas un problème pour la startup.

Récemment, Safe Superintelligence (SSI) a annoncé avoir levé 1 milliard de dollars en espèces pour aider à développer des systèmes d'intelligence artificielle sûrs qui dépassent de loin les capacités humaines. SSI, qui compte actuellement 10 employés, prévoit d'utiliser les fonds pour acquérir de la puissance de calcul et recruter les meilleurs talents. Elle se concentrera sur la constitution d'une petite équipe de chercheurs et d'ingénieurs de confiance, répartie entre Palo Alto, en Californie, et Tel Aviv, en Israël.


La société a refusé de communiquer son évaluation, mais des sources proches du dossier ont indiqué qu'elle était évaluée à 5 milliards de dollars. Ce financement montre que certains investisseurs sont toujours prêts à parier sur des talents exceptionnels dans le domaine de la recherche fondamentale sur l'intelligence artificielle. Et ce, en dépit d'un désintérêt général pour le financement de telles entreprises, qui peuvent ne pas être rentables pendant un certain temps, et qui a poussé plusieurs fondateurs de startups à quitter leur poste pour rejoindre des géants de la technologie.

Parmi les investisseurs figurent des sociétés de capital-risque de premier plan comme Andreessen Horowitz, Sequoia Capital, DST Global et SV Angel. NFDG, un partenariat d'investissement dirigé par Nat Friedman et Daniel Gross, directeur général de SSI, a également participé à l'événement. "Il est important pour nous d'être entourés d'investisseurs qui comprennent, respectent et soutiennent notre mission, qui est d'aller droit vers une superintelligence sûre et, en particulier, de passer quelques années à faire de la R&D sur notre produit avant de le mettre sur le marché", a déclaré M. Gross lors d'une interview.

La sécurité de l'IA, qui consiste à empêcher l'IA de nuire, est un sujet brûlant, car on craint que des IA malveillantes n'agissent contre les intérêts de l'humanité, voire ne provoquent l'extinction de celle-ci. Un projet de loi californien visant à imposer des règles de sécurité aux entreprises a divisé le secteur. Il est combattu par des entreprises comme OpenAI et Google, et soutenu par Anthropic et xAI d'Elon Musk.

M. Sutskever, 37 ans, est l'un des technologues les plus influents dans le domaine de l'IA. Il a cofondé SSI en juin avec M. Gross, qui a précédemment dirigé des initiatives en matière d'IA chez Apple, et Daniel Levy, un ancien chercheur de l'OpenAI. Sutskever est scientifique en chef et Levy est scientifique principal, tandis que Gross est responsable de la puissance de calcul et de la collecte de fonds.

Voici la description de la startup :


Mise à jour : nous avons levé 1 milliard de dollars auprès de NFDG, a16z, Sequoia, DST Global et SV Angel.

La superintelligence est à portée de main.

Construire une superintelligence sûre (SSI) est le problème technique le plus important de notre époque.

Nous avons créé le premier laboratoire SSI au monde, avec un seul objectif et un seul produit : une superintelligence sûre.

Ce laboratoire s'appelle Safe Superintelligence Inc.

SSI est notre mission, notre nom et l'ensemble de notre feuille de route, car c'est notre unique objectif. Notre équipe, nos investisseurs et notre modèle d'entreprise sont tous alignés sur la réalisation de la SSI.

Nous abordons la sécurité et les capacités en tandem, comme des problèmes techniques à résoudre grâce à une ingénierie révolutionnaire et à des percées scientifiques. Nous prévoyons de faire progresser les capacités aussi rapidement que possible tout en veillant à ce que notre sécurité reste toujours en tête.

De cette manière, nous pouvons évoluer en toute sérénité.

Notre objectif unique signifie qu'il n'y a pas de distraction par les frais généraux de gestion ou les cycles de produits, et notre modèle d'entreprise signifie que la sûreté, la sécurité et le progrès sont tous à l'abri des pressions commerciales à court terme.

Nous sommes une entreprise américaine avec des bureaux à Palo Alto et Tel Aviv, où nous avons des racines profondes et la capacité de recruter les meilleurs talents techniques.

Nous sommes en train de constituer une équipe légère et soudée, composée des meilleurs ingénieurs et chercheurs au monde, qui se consacrera exclusivement à la SSI.

Si c'est votre cas, nous vous offrons l'opportunité de faire le travail de votre vie et de contribuer à résoudre le défi technique le plus important de notre époque.

Le moment est venu. Rejoignez-nous.
Ilya Sutskever, Daniel Gross, Daniel Levy
Source : Safe Superintelligence

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi :

Ilya Sutskever, cofondateur et ancien scientifique en chef d'OpenAI, lance une nouvelle startup pour construire une "superintelligence" sûre et puissante, après avoir échoué à maintenir OpenAI sur cette voie

OpenAI, xAI, Google, Meta et d'autres entreprises d'IA s'engagent sur la sécurité, promettant de ne pas déployer d'IA si les risques graves ne peuvent pas être pris en compte et atténués

Le NIST publie sur GitHub la plateforme open-source Dioptra pour tester la sécurité de l'IA face à différents types d'attaques, avec des fonctionnalités pour évaluer, analyser et suivre les risques de l'IA

Une erreur dans cette actualité ? Signalez-nous-la !