Le 15 mai 2024, Ilya Sutskever, cofondateur et ancien scientifique en chef d'OpenAI, a annoncé qu'il quittait l'entreprise après une dizaine d'années. Il avait indiqué qu'il travaillait sur un nouveau projet qui lui tient personnellement à cœur, sans donné plus détails. Il avait même déclaré : "Je suis convaincu qu'OpenAI construira une AGI à la fois sûre et bénéfique." Pour rappel, il était l'un des quatre membres du conseil d'administration qui ont voté en faveur de l'éviction du PDG Sam Altman, avant de le réintégrer rapidement.
Un mois plus tard, il dévoilait son nouveau projet : une nouvelle startup baptisée Safe Superintelligence Inc. (SSI) avec "un seul objectif et un seul produit", créer une superintelligence sûre et puissante. Lors de l'annonce, il promettait que sa nouvelle société donnera la priorité à la sécurité plutôt qu'aux "pressions commerciales", critiquant ainsi la nouvelle direction donnée par Sam Altman à OpenAI. Dans ce sens, son équipe avait assuré que la recherche de capitaux ne sera pas un problème pour la startup.
Récemment, Safe Superintelligence (SSI) a annoncé avoir levé 1 milliard de dollars en espèces pour aider à développer des systèmes d'intelligence artificielle sûrs qui dépassent de loin les capacités humaines. SSI, qui compte actuellement 10 employés, prévoit d'utiliser les fonds pour acquérir de la puissance de calcul et recruter les meilleurs talents. Elle se concentrera sur la constitution d'une petite équipe de chercheurs et d'ingénieurs de confiance, répartie entre Palo Alto, en Californie, et Tel Aviv, en Israël.
La société a refusé de communiquer son évaluation, mais des sources proches du dossier ont indiqué qu'elle était évaluée à 5 milliards de dollars. Ce financement montre que certains investisseurs sont toujours prêts à parier sur des talents exceptionnels dans le domaine de la recherche fondamentale sur l'intelligence artificielle. Et ce, en dépit d'un désintérêt général pour le financement de telles entreprises, qui peuvent ne pas être rentables pendant un certain temps, et qui a poussé plusieurs fondateurs de startups à quitter leur poste pour rejoindre des géants de la technologie.
Parmi les investisseurs figurent des sociétés de capital-risque de premier plan comme Andreessen Horowitz, Sequoia Capital, DST Global et SV Angel. NFDG, un partenariat d'investissement dirigé par Nat Friedman et Daniel Gross, directeur général de SSI, a également participé à l'événement. "Il est important pour nous d'être entourés d'investisseurs qui comprennent, respectent et soutiennent notre mission, qui est d'aller droit vers une superintelligence sûre et, en particulier, de passer quelques années à faire de la R&D sur notre produit avant de le mettre sur le marché", a déclaré M. Gross lors d'une interview.
La sécurité de l'IA, qui consiste à empêcher l'IA de nuire, est un sujet brûlant, car on craint que des IA malveillantes n'agissent contre les intérêts de l'humanité, voire ne provoquent l'extinction de celle-ci. Un projet de loi californien visant à imposer des règles de sécurité aux entreprises a divisé le secteur. Il est combattu par des entreprises comme OpenAI et Google, et soutenu par Anthropic et xAI d'Elon Musk.
M. Sutskever, 37 ans, est l'un des technologues les plus influents dans le domaine de l'IA. Il a cofondé SSI en juin avec M. Gross, qui a précédemment dirigé des initiatives en matière d'IA chez Apple, et Daniel Levy, un ancien chercheur de l'OpenAI. Sutskever est scientifique en chef et Levy est scientifique principal, tandis que Gross est responsable de la puissance de calcul et de la collecte de fonds.
Voici la description de la startup :
Mise à jour : nous avons levé 1 milliard de dollars auprès de NFDG, a16z, Sequoia, DST Global et SV Angel.
La superintelligence est à portée de main.
Construire une superintelligence sûre (SSI) est le problème technique le plus important de notre époque.
Nous avons créé le premier laboratoire SSI au monde, avec un seul objectif et un seul produit : une superintelligence sûre.
Ce laboratoire s'appelle Safe Superintelligence Inc.
SSI est notre mission, notre nom et l'ensemble de notre feuille de route, car c'est notre unique objectif. Notre équipe, nos investisseurs et notre modèle d'entreprise sont tous alignés sur la réalisation de la SSI.
Nous abordons la sécurité et les capacités en tandem, comme des problèmes techniques à résoudre grâce à une ingénierie révolutionnaire et à des percées scientifiques. Nous prévoyons de faire progresser les capacités aussi rapidement que possible tout en veillant à ce que notre sécurité reste toujours en tête.
De cette manière, nous pouvons évoluer en toute sérénité.
Notre objectif unique signifie qu'il n'y a pas de distraction par les frais généraux de gestion ou les cycles de produits, et notre modèle d'entreprise signifie que la sûreté, la sécurité et le progrès sont tous à l'abri des pressions commerciales à court terme.
Nous sommes une entreprise américaine avec des bureaux à Palo Alto et Tel Aviv, où nous avons des racines profondes et la capacité de recruter les meilleurs talents techniques.
Nous sommes en train de constituer une équipe légère et soudée, composée des meilleurs ingénieurs et chercheurs au monde, qui se consacrera exclusivement à la SSI.
Si c'est votre cas, nous vous offrons l'opportunité de faire le travail de votre vie et de contribuer à résoudre le défi technique le plus important de notre époque.
Le moment est venu. Rejoignez-nous.
Ilya Sutskever, Daniel Gross, Daniel Levy
Et vous ?
Quel est votre avis sur le sujet ?
Voir aussi :
Ilya Sutskever, cofondateur et ancien scientifique en chef d'OpenAI, lance une nouvelle startup pour construire une "superintelligence" sûre et puissante, après avoir échoué à maintenir OpenAI sur cette voie
OpenAI, xAI, Google, Meta et d'autres entreprises d'IA s'engagent sur la sécurité, promettant de ne pas déployer d'IA si les risques graves ne peuvent pas être pris en compte et atténués
Le NIST publie sur GitHub la plateforme open-source Dioptra pour tester la sécurité de l'IA face à différents types d'attaques, avec des fonctionnalités pour évaluer, analyser et suivre les risques de l'IA