Sam Altman se défausse de ses responsabilités relatives aux risques liés à l'IA
Sam Altman, 39 ans, investisseur en capital-risque et PDG d'OpenAI, s'est entretenu avec le journaliste Andrew Ross Sorkin lors du sommet Dealbook du New York Times la semaine dernière. À un moment donné, Sam Altman a été confronté à la question suivante : « pensez-vous que le gouvernement, ou quelqu'un d'autre, va trouver le moyen d'éviter la menace existentielle posée par les systèmes d'IA superintelligents ? ». C'est alors que le PDG se défausse.
« Je suis convaincu que les chercheurs trouveront le moyen d'éviter cela. Je pense qu'il existe un ensemble de problèmes techniques sur lesquels les personnes les plus intelligentes du monde vont travailler. Et, vous savez, je suis un peu trop optimiste par nature, mais je suppose qu'ils vont trouver une solution », a répondu Sam Altman. Il poursuit en suggérant que l'IA elle-même sera peut-être si intelligente qu'elle trouvera simplement comment se maîtriser.
« Nous avons cette magie », a dit Sam Altman, avant de se corriger. « Pas de la magie. Nous disposons de cet incroyable outil scientifique appelé « apprentissage profond » qui peut nous aider à résoudre ces problèmes très difficiles ». Sam Altman semble se comporter avec la froideur de savoir que même si « la technologie qu'il a consacré sa vie à faire progresser détruit l'économie mondiale, il sera en sécurité dans son bunker situé sur la côte californienne ».
Pour rappel, Sam Altman se prépare à une apocalypse provoquée par l'IA. Par le passé, Sam Altman a mis en garde contre un « virus synthétique mortel », une IA attaquant les humains ou une guerre nucléaire : « j'essaie de ne pas trop y penser. Mais j'ai des fusils, de l'or, de l'iodure de potassium, des antibiotiques, des batteries, des masques à gaz des forces de défense israéliennes, de l'eau et une grande parcelle de terre à Big Sur vers laquelle je peux m'envoler ».
Mais pour le reste d'entre nous, il serait bon d'entendre Sam Altman, ou n'importe lequel de ses collègues partisans de l'IA, expliquer ce qu'ils entendent exactement lorsqu'ils disent des choses comme « nous trouverons la solution ». Ses réponses laissent les utilisateurs sceptiques quant à l'avenir.
Même les chercheurs en IA admettent qu'ils ne comprennent toujours pas précisément comment la technologie fonctionne. Selon un rapport du département d'État américain, les systèmes d'IA sont essentiellement des boîtes noires qui représentent « une menace d'extinction pour l'espèce humaine ».
L'alignement de l'IA sur les valeurs de l'humanité pourrait s'avérer insuffisant
Outre les problèmes de sécurité et de protection de la vie privée liés aux progrès rapides de l'IA générative, la possibilité de nouvelles avancées dans ce domaine reste un risque majeur. OpenAI, Microsoft, Google, Anthropic, etc. investissent massivement dans l'IA, mais l'absence de politiques régissant son développement est très préoccupante, car il pourrait être difficile d'établir un contrôle si/quand l'IA s'écarte des garde-fous et échappe à tout contrôle.
Plus inquiétant encore, un autre rapport fait état d'une probabilité de 99,99 % que l'IA mette fin à l'humanité, selon p(doom). Pour situer le contexte, p(doom) fait référence à une IA qui prendrait le contrôle de l'humanité ou pire encore, qui y mettrait fin. Le chercheur en sécurité de l'IA à l'origine de l'étude, Roman Yampolskiy, a également indiqué qu'il serait pratiquement impossible de contrôler l'IA une fois que nous aurons atteint le seuil de superintelligence.
Même si les chercheurs parvenaient à démêler l'écheveau technique et à résoudre ce qu'ils appellent le « problème de l'alignement », Sam Altman admet qu'il resterait encore des problèmes à résoudre par quelqu'un ou par un gouvernement. L'alignement de l'IA consiste à s'assurer que les modèles d'IA respectent les valeurs de l'humanité et ne s'en écartent pas. Cela éviterait que les modèles d'IA se transforment en « monstres ou robots destructeurs ».
Lors de son intervention au sommet Dealbook, Sam Altman a renvoyé une fois de plus la responsabilité de la réglementation de l'IA à « une organisation internationale créée de toutes pièces et composée d'adultes rationnels qui ne veulent pas s'entretuer ».
Sam Altman a déclaré : « même si nous parvenons à rendre ce (modèle superintelligent) techniquement sûr, ce que je suppose que nous trouverons, nous devrons faire confiance à nos gouvernements... Il faudra une coordination mondiale... Je suppose que nous serons à la hauteur, mais cela semble être un défi ».
Selon les critiques, Sam Altman fait beaucoup de suppositions, ce qui signifie qu'il n'est sûr de rien. En outre, cela reflète une compréhension myope de la manière dont l'élaboration des politiques et la coordination mondiale fonctionnent réellement, c'est-à-dire lentement, de manière inefficace et souvent pas du tout.
Sam Altman et OpenAI ont revu à la baisse leurs attentes en matière d'AGI
Lors de son intervention au sommet Dealbook, Sam Altman a fait d'autres déclarations surprenantes, comme lorsqu'il a suggéré qu'il n'était pas motivé par les milliards de dollars de capital qu'il pourrait obtenir d'OpenAI ; il a déclaré qu'il aime simplement son travail. Plus tard, Sam Altman a également tenté d'étouffer les spéculations sur sa rupture dramatique avec Elon Musk, un des cofondateurs d'OpenAI, qui a depuis fondé sa propre entreprise d'IA, xAI.
Elon Musk est entré dans le cercle rapproché du président américain élu Donald Trump. Il dénonce le partenariat entre Microsoft et OpenAI et appelle la justice à y mettre un terme. Lorsqu'on a demandé à Sam Altman s'il craint qu'Elon Musk abuse de sa nouvelle influence et écarte les rivaux de xAI et de ses autres entreprises, il a répondu qu'il ne perdait pas le sommeil pour autant. « Je crois fermement qu'Elon fera ce qu'il faut », a déclaré Sam Altman.
« Il serait profondément antiaméricain d'utiliser le pouvoir politique, dans la mesure où Elon l'a, pour nuire à ses concurrents et avantager ses propres entreprises », a-t-il ajouté. Elon Musk fait également partie de ses dirigeants milliardaires qui investissent massivement dans le développement de l'IA, mais dans le même temps, craignent la menace existentielle que représente la technologie pour l'humanité et appellent à une réglementation stricte.
Par ailleurs, OpenAI semble en passe de supprimer le critère de l'AGI de sa liste de choses à faire. Sam Altman a indiqué que « la technologie tant convoitée pourrait arriver plus tôt que prévu ». Contrairement à la croyance populaire, il affirme que le point de référence passera rapidement avec un impact sociétal « étonnamment faible ». Cependant, pour de nombreux analystes, Sam Altman tente d'abaisser les critères pour attirer plus de financements.
Parallèlement, Sam Altman a écrit un article suggérant que « la superintelligence pourrait n'être qu'à quelques milliers de jours ». Sam Altman indique que les inquiétudes exprimées en matière de sécurité au moment de l'AGI. Cette déclaration controversée rend davantage floue la vision de Sam Altman en matière d'AGI.
La bulle de l'IA s'estompe et les investisseurs pourraient retirer leurs billes
OpenAI a récemment été au bord de la faillite, prévoyant une perte de 5 milliards de dollars pour l'année 2024. L'entreprise a pu lever 6,6 milliards de dollars auprès d'investisseurs tels que Microsoft et Nvidia, ce qui a finalement porté sa capitalisation boursière à 157 milliards de dollars. Toutefois, l'entreprise semble subir des pressions pour abandonner son statut d'organisation à but non lucratif, ce qui lui permettrait d'attirer davantage d'investisseurs.
Cette restructuration controversée pourrait exposer le fabricant de ChatGPT à des problèmes tels que l'ingérence de tiers et des rachats hostiles de la part d'entreprises telles que Microsoft, qui, selon les analystes, pourrait acquérir OpenAI au cours des trois prochaines années. Elon Musk considère d'ailleurs OpenAI comme une filiale de facto de Microsoft en raison de leur partenariat et accuse la startup d'IA d'avoir rompu ses accords contractuels initiaux.
Les analystes du marché prévoient que l'intérêt des investisseurs pour la bulle de l'IA s'estompe. Par conséquent, ils pourraient finir par retirer leurs investissements et les canaliser ailleurs. Un rapport corroborant cette théorie indique que 30 % des projets liés à l'IA seront abandonnés d'ici à 2025 après la validation du concept.
D'autres rapports indiquent que l'IA a atteint un plafond, suggérant que les progrès vont commencer à ralentir. Le PDG de Google, Sundar Pichai, partage cet avis : « le développement de l'IA va commencer à ralentir. Je pense que les progrès vont devenir plus difficiles, les fruits à portée de main ont disparu ».
Par ailleurs, certains affirment également que les principaux laboratoires d'IA, dont OpenAI, peinent à créer des modèles d'IA avancés en raison d'un manque de données de haute qualité pour l'entraînement. La pénurie de données est l'un des principaux goulots d'étranglement au développement de l'IA.
Sam Altman a réfuté ces affirmations en déclarant qu'il n'y a pas de « mur » pour atteindre de nouveaux sommets et progresser dans le développement de l'IA. L'ancien PDG de Google, Eric Schmidt, a réitéré les sentiments de Sam Altman, en indiquant que « rien ne prouve que les lois de mise à l'échelle ne fonctionnent plus ».
Source : interview de Sam Altman au DealBook Summit 2024
Et vous ?
Que pensez-vous des déclarations de Sam Altman sur la menace existentielle que l'IA représente pour l'humanité ?
Selon vous, Sam Altman se défausse-t-il de ses responsabilités concernant les risques liés à l'IA ? Pourquoi ?
Sam Altman affirme qu'il irait se terrer dans son bunker lorsque quelque chose tournera mal avec la technologie qu'il crée. Qu'en pensez-vous ?
Voir aussi
Découvrez Sam Altman, PDG d'OpenAI, qui a appris à programmer à l'âge de 8 ans et qui se prépare également à l'apocalypse avec une réserve d'or, des armes et des masques à gaz
Sundar Pichai, PDG de Google, prédit l'avenir de l'IA : le développement de l'IA va commencer à ralentir, « Je pense que les progrès vont devenir plus difficiles, les fruits à portée de main ont disparu »
Sam Altman revoit à la baisse les attentes en matière d'intelligence artificielle générale (IAG). Une stratégie d'OpenAI face aux limites actuelles de l'IA ou une remise en question des ambitions futures ?