Samuel Harris Altman est un entrepreneur et investisseur américain surtout connu pour être le PDG d'OpenAI depuis 2019 (il a été brièvement licencié puis réintégré dans ses fonctions en novembre 2023). Il est également le président des sociétés d'énergie propre Oklo Inc. et Helion Energy. Altman est considéré comme l'une des figures de proue du boom de l'IA. Il a abandonné l'université de Stanford au bout de deux ans et a fondé Loopt, un service de réseau social mobile, levant plus de 30 millions de dollars en capital-risque. En 2011, Altman a rejoint Y Combinator, un accélérateur de startups, dont il a été le président de 2014 à 2019.
Le développement rapide de l'intelligence artificielle (IA) a suscité un débat mondial sur son impact potentiel et sur la nécessité d'un développement responsable. L'un des aspects essentiels de ce débat est la réglementation de l'IA, les experts s'interrogeant sur la manière de garantir une utilisation sûre et éthique de l'IA. Sam Altman, PDG d'OpenAI, une société de recherche axée sur le développement d'une IA sûre et bénéfique, est l'un des principaux acteurs de ce débat. M. Altman a notamment plaidé en faveur de la création d'une agence internationale chargée de contrôler et de garantir la « sécurité raisonnable » des puissants systèmes d'IA.
M. Altman, qui a cofondé et dirige la startup d'IA à l'origine du populaire chatbot d'IA générative ChatGPT, a déclaré que la prochaine étape consistait pour le gouvernement à commencer à effectuer des tests de sécurité sur cette nouvelle technologie qui progresse rapidement.
« L'une des premières choses à faire - et c'est ce qui est en train de se produire - est de faire en sorte que le gouvernement commence à réfléchir à la manière de tester la sécurité de ces systèmes, comme nous le faisons pour les avions ou les nouveaux médicaments », a-t-il déclaré.
« J'ai personnellement probablement une conversation avec quelqu'un du gouvernement tous les deux ou trois jours », a-t-il ajouté.
Ces propos contrastent avec la position interne de M. Altman et d'OpenAI sur les restrictions à l'innovation. En mai, l'entreprise a dissous son équipe « Superalignment », qui était chargée de travailler sur le problème des dangers existentiels de l'IA. L'entreprise a déclaré que les travaux de l'équipe seraient absorbés par d'autres efforts de recherche au sein d'OpenAI. Des critiques, y compris d'anciens employés, ont averti que l'entreprise et ses ambitions posaient de « sérieux risques ».
À terme, OpenAI espère atteindre ce que l'on appelle l'intelligence artificielle générale (AGI), une vision futuriste de machines capables de faire à peu près n'importe quoi aussi bien que les humains.
L'émission spéciale, qui comprend également des interviews d'autres experts, dont le fondateur de Microsoft Bill Gates et le directeur du FBI Christopher Wray, est désormais disponible en streaming sur Hulu.
OpenAI serait actuellement en pourparlers avec des investisseurs en vue d'obtenir un financement de 6,5 milliards de dollars dans le cadre d'un nouveau tour de table. Cette levée de fonds d'OpenAI pourrait porter sa valorisation à 150 milliards de dollars. Les rapports montrent que l'entreprise cherche a combler des milliards de pertes dû aux dépenses colossales pour la formation de ses modèles d'IA.
Ce dernier tour de table serait le plus important depuis le soutien de 10 milliards de dollars accordé par Microsoft en janvier 2023, et pourrait également inclure des fonds provenant d'Apple et de Nvidia.
Pour sa part, Oprah a souligné l'importance de prêter attention aux nouvelles technologies et de s'y adapter si nécessaire, étant donné que l'IA - bien qu'elle en soit encore à ses débuts - est probablement là pour durer.
« L'IA échappe encore à notre contrôle et, dans une large mesure, à notre compréhension », a-t-elle déclaré dans des remarques préparées au début de l'émission spéciale. « Mais elle est là, et nous allons vivre avec une technologie qui peut être notre alliée comme notre rivale ».
« Nous sommes les créatures les plus adaptables de cette planète », a-t-elle ajouté. « Nous nous adapterons encore. Mais ne perdez pas de vue la réalité. Les enjeux ne pourraient être plus élevés. »
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous cette proposition de M. Altman cohérente ou pertinente ?
Voir aussi :
Sam Altman, PDG d'OpenAI, estime qu'une agence internationale devrait surveiller les IA "les plus puissantes" pour garantir une "sécurité raisonnable", car ces systèmes peuvent "causer d'importants dommages"
OpenAI a créé un comité de sûreté et de sécurité qui sera dirigé par des membres du conseil d'administration, dont le PDG Sam Altman, alors qu'elle commence à former son prochain modèle d'IA
Les startups d'IA OpenAI et Anthropic ont signé des accords avec le gouvernement américain pour la recherche, le test et l'évaluation de leurs modèles d'intelligence artificielle