Le PDG d'OpenAI, Sam Altman, est revenu sur la question relative à la menace existentielle que l'IA représente pour l'humanité lors d'une récente interview. Il a déclaré qu'il espère que les chercheurs trouveront un moyen d'empêcher l'IA de détruire l'humanité. Il a ajouté que l'IA pourrait être suffisamment intelligente pour résoudre les conséquences des avancées rapides dans le paysage, y compris la destruction de l'humanité. En outre, après avoir revu à la baisse les attentes à l'égard de l'AGI, Sam Altman estime que l'AGI pourrait voir le jour plus tôt que prévu, ajoutant que « les craintes exprimées en matière de sécurité ne se manifesteront pas à ce moment-là ».Sam Altman se défausse de ses responsabilités relatives aux risques liés à l'IA
Sam Altman, 39 ans, investisseur en capital-risque et PDG d'OpenAI, s'est entretenu avec le journaliste Andrew Ross Sorkin lors du sommet Dealbook du New York Times la semaine dernière. À un moment donné, Sam Altman a été confronté à la question suivante : « pensez-vous que le gouvernement, ou quelqu'un d'autre, va trouver le moyen d'éviter la menace existentielle posée par les systèmes d'IA superintelligents ? ». C'est alors que le PDG se défausse.
« Je suis convaincu que les chercheurs trouveront le moyen d'éviter cela. Je pense qu'il existe un ensemble de problèmes techniques sur lesquels les personnes les plus intelligentes du monde vont travailler. Et, vous savez, je suis un peu trop optimiste par nature, mais je suppose qu'ils vont trouver une solution », a répondu Sam Altman. Il poursuit en suggérant que l'IA elle-même sera peut-être si intelligente qu'elle trouvera simplement comment se maîtriser.
« Nous avons cette magie », a dit Sam Altman, avant de se corriger. « Pas de la magie. Nous disposons de cet incroyable outil scientifique appelé « apprentissage profond » qui peut nous aider à résoudre ces problèmes très difficiles ». Sam Altman semble se comporter avec la froideur de savoir que même si « la technologie qu'il a consacré sa vie à faire progresser détruit l'économie mondiale, il sera en sécurité dans son bunker situé sur la côte californienne ».
Pour rappel, Sam Altman se prépare à une apocalypse provoquée par l'IA. Par le passé, Sam Altman a mis en garde contre un « virus synthétique mortel », une IA attaquant les humains ou une guerre nucléaire : « j'essaie de ne pas trop y penser. Mais j'ai des fusils, de l'or, de l'iodure de potassium, des antibiotiques, des batteries, des masques à gaz des forces de défense israéliennes, de l'eau et une grande parcelle de terre à Big Sur vers laquelle je peux m'envoler ».
Mais pour le reste d'entre nous, il serait bon d'entendre Sam Altman, ou n'importe lequel de ses collègues partisans de l'IA, expliquer ce qu'ils entendent exactement lorsqu'ils disent des choses comme « nous trouverons la solution ». Ses réponses laissent les utilisateurs sceptiques quant à l'avenir.
Même les chercheurs en IA admettent qu'ils ne comprennent toujours pas précisément comment la technologie fonctionne. Selon un rapport du département d'État américain, les systèmes d'IA sont essentiellement des boîtes noires qui représentent « une menace d'extinction pour l'espèce humaine ».
L'alignement de l'IA sur les valeurs de l'humanité pourrait s'avérer insuffisant
Outre les problèmes de sécurité et de protection de la vie privée liés aux progrès rapides de l'IA générative, la possibilité de nouvelles avancées dans ce domaine reste un risque majeur. OpenAI, Microsoft, Google, Anthropic, etc. investissent massivement dans l'IA, mais l'absence de politiques régissant son développement est très préoccupante, car il pourrait être difficile d'établir un contrôle si/quand l'IA s'écarte des garde-fous et échappe à tout contrôle.
Plus inquiétant encore, un autre rapport fait état d'une probabilité de 99,99 % que l'IA mette fin à l'humanité, selon p(doom). Pour situer le contexte, p(doom) fait référence à une IA qui prendrait le contrôle de l'humanité ou pire encore, qui y mettrait fin. Le chercheur en sécurité de l'IA à l'origine de l'étude, Roman Yampolskiy, a également indiqué qu'il serait pratiquement impossible de contrôler l'IA une fois que nous aurons atteint le seuil de superintelligence.
Même si les chercheurs parvenaient à démêler l'écheveau technique et à résoudre ce qu'ils appellent le « problème de l'alignement », Sam Altman admet qu'il resterait encore des problèmes à résoudre par quelqu'un ou par un gouvernement. L'alignement de l'IA consiste à s'assurer que les...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.