
grâce aux outils de clonage de voix
Sam Altman a mis en garde le secteur financier contre une crise imminente en matière de fraude. Il alerte notamment sur le fait que les outils d'IA sont capables d'imiter la voix d'une personne pour contourner les contrôles de sécurité à des fins d'escroquerie. Il se dit terrifié par l’imprudence des institutions financières qui acceptent encore l'empreinte vocale comme moyen d'authentification. Selon lui, l'IA a complètement vaincu la plupart des moyens d'authentification actuels, à l'exception des mots de passe. Pour sauver l'économie mondiale, il propose de créer une carte d'identité numérique à partir du scan de l'iris, une idée très controversée.
Sam Altman a participé à une conférence organisée par la Réserve fédérale à Washington le 22 juillet 2025. Lors de la conférence, Sam Altman s'est exprimé sur les défis que l'IA pourrait poser au secteur financier et quel rôle la technologie pourrait jouer dans l'économie mondiale. En ce qui concerne les défis potentiels, Sam Altman a déclaré aux participants que l'IA pourrait conduire le secteur financier vers une « crise de fraude » sans précédent.
Il s'est montré particulièrement inquiet au sujet l'empreinte vocale, qu'il considère comme une méthode d'authentification obsolète : « ce qui me terrifie, c'est qu'il existe encore des institutions financières qui acceptent une empreinte vocale comme authentification pour déplacer beaucoup d'argent ou faire autre chose - vous dites une phrase de défi, et elles le font. C'est complètement fou de continuer à faire cela. L'IA a rendu cette méthode obsolète ».
L'empreinte vocale, qui consiste pour les clients à prononcer une phrase de sécurité pour accéder à leurs comptes, a gagné en popularité il y a plus d'une décennie, en particulier parmi les clients fortunés des banques. Mais selon Sam Altman, les clones vocaux générés par l'IA, et à terme les clones vidéo, deviennent de plus en plus impossibles à distinguer de la réalité, ce qui nécessite la mise en place de systèmes de vérification entièrement nouveaux.
« Pour l'instant, il s'agit d'appels vocaux, mais bientôt, ce seront des vidéos ou des appels FaceTime impossibles à distinguer de la réalité », a-t-il déclaré. Il a averti que même si son entreprise ne développait pas de tels outils d'usurpation d'identité, il s'agissait d'un défi auquel le monde devra bientôt faire face à mesure que l'IA continuait d'évoluer. De nombreuses personnes à travers le monde ont déjà été victimes des clones vocaux générés par l'IA.
Michelle Bowman, vice-présidente de la Fed chargée de la supervision et principale régulatrice financière de la banque centrale, qui a animé la discussion avec Sam Altman, a répondu au PDG d'OpenAI : « c'est peut-être quelque chose sur lequel nous pourrions envisager de travailler ensemble ».
Les systèmes d'IA de clonage de voix ont déjà fait de nombreuses victimes
En 2024, un couple de Brooklyn a vécu une expérience terrifiante lorsque des escrocs ont utilisé l’IA pour cloner la voix de leurs proches et simuler une situation de rançon. En pleine nuit, Robin, une femme dans la trentaine, a été réveillée par un appel de sa belle-mère, Mona, qui semblait être en détresse. La voix paniquée de Mona répétait sans cesse « je ne peux pas le faire, je ne peux pas le faire ». Peu après, le mari de Robin, Steve, a pris l’appel.
Steve s’est retrouvé confronté à un homme affirmant détenir sa mère sous la menace d’une arme et exigeant de l’argent. L'homme lui a intimé l'ordre de ne pas appeler la police, en menaçant de « coller une balle dans la tempe » de sa mère s'il n'obéissait pas. L'homme a demandé de l'argent ; il voulait cinq cents dollars, envoyés par Venmo. Après que Steve a envoyé les cinq cents dollars de « rançon », l'homme lui a fait envoyer 250 dollars de plus.
Puis, environ 25 minutes après l'échange téléphonique, il a appelé sa mère pour s'assurer que ses parents étaient désormais en sécurité. Après quelques tentatives, son père Bob a décroché le téléphone et l'a tendu à Mona. « Tu es à la maison ? Tu vas bien ? » Lui a demandé Steve. Mona avait l'air d'aller bien, mais elle ne savait pas de quoi ils parlaient. « Oui, je suis couchée », a-t-elle répondu. « Pourquoi ? ». Ils venaient ainsi de se faire escroquer.
Début 2020, un directeur de banque à Hong Kong a reçu un appel d'un homme dont il reconnaissait la voix, le dirigeant d'une entreprise avec qui il avait déjà parlé. Ce dernier avait une bonne nouvelle : sa société était sur le point de faire une acquisition, il avait donc besoin que la banque autorise des virements à hauteur de 35 millions de dollars. Un avocat nommé Martin Zelner avait été embauché afin de coordonner les procédures de virement.
Le directeur de la banque pouvait voir dans sa boîte de réception les courriels du directeur de société et de Martin Zelner, confirmant le montant du virement et où le virement devait être fait. Le directeur de la banque, estimant que tout semblait légitime, a commencé à effectuer les virements.
Ce qu'il ne savait pas, c'est qu'il avait été dupé dans le cadre d'une escroquerie élaborée, dans laquelle des fraudeurs avaient utilisé des outils d'IA de génération de contenu audio pour cloner la voix du directeur. Selon un document judiciaire dans lequel les Émirats arabes unis demandaient l'aide d'enquêteurs américains pour retrouver 400 000 dollars de fonds volés qui étaient arrivés dans des comptes basés aux États-Unis détenus par la Centennial Bank.
Worldcoin : Sam Altman a une solution contre la fraude favorisée par l'IA
Worldcoin est un projet de cryptomonnaie lancé en juillet 2023. La société souhaite fusionner la blockchain et la biométrie afin que ceux qui acceptent qu'on scanne leurs iris soient récompensés par un jeton numérique appelé Worldcoin. Alors que les problèmes de cybersécurité et de fuites de données se multiplient, Sam Altman dit avoir lancé le projet afin de limiter les escroqueries et les violations causées par les robots et les acteurs malveillants en ligne.
Il veut scanner le globe oculaire de l'utilisateur pour la mise en place d'une carte d'identité numérique. Ce qui permettra à ce dernier prouver son identité en ligne. Il présente ses technologies comme essentielles pour aider à distinguer les robots des humains dans une société de plus en plus dominée par l'IA.
En 2024, le projet a retiré le suffixe « coin » de son nom et s'appellera désormais « World ». Le changement de marque a été annoncé par Sam Altman lors d'un événement le 17 octobre 2024 à San Francisco. Il a révélé une série d'autres mises à jour, à savoir une nouvelle version de l'outil de balayage de l'iris Orb, de nouvelles options de vérification de l'identité et des intégrations avec des applications populaires telles que FaceTime, WhatsApp et Zoom.
En réponse à un article de Sam Altman sur le projet en 2021, Edward Snowden a écrit sur Twitter (aujourd'hui X) : « n'utilisez pas la biométrie pour quoi que ce soit. Le corps humain n'est pas une planche à billets ». De nombreuses personnes hésitent, et c'est compréhensible, à confier leurs données biométriques à une société privée à but lucratif dont les objectifs sont incertains ; Sam Altman lui-même reconnaît qu'il s'agissait d'un véritable casse-tête.
En 2023, des pirates ont volé les identifiants de connexion des opérateurs de World chargés d'inscrire les nouveaux utilisateurs, ce qui leur a permis de consulter des informations internes. Selon un article du site BlockBeats, des Cambodgiens et des Kenyans vendaient leurs données d'iris pour seulement 30 $ à des spéculateurs sur le marché noir, qui espéraient que le prix du jeton World (WLD) qu'ils collectaient à partir des scanners augmenterait.
Les autorités de régulation du monde entier ont suivi le projet de près. En France, la CNIL a ouvert une enquête sur World pour collecte et conservation douteuses des données. Un régulateur britannique a émis un avertissement similaire. Le gouvernement kenyan a demandé à World de mettre fin à ses activités de collecte de données dans son pays, notant que le projet posait des problèmes réglementaires légitimes qui nécessitent une action urgente.
Sam Altman continue d'investir des milliards dans l'IA malgré ses craintes
Lors de la conférence de la Fed de Washington, Sam Altman a expliqué ce qui l'empêche de dormir la nuit : l'idée que des acteurs malveillants puissent créer et utiliser à mauvais escient une « superintelligence » artificielle avant que le reste du monde ne soit suffisamment avancé pour se défendre contre une telle attaque. Par exemple, un adversaire des États-Unis utilisant l'IA pour cibler le réseau électrique américain ou créer une arme biologique.
Sam Altman s'inquiète des risques liés à l'IA, mais des rapports publiés récemment suggèrent qu'il a volontairement mis de côté ou négligé la sécurité pour gagner plus d’argent et augmenter les bénéfices d'OpenAI. La société, fondée à l'origine pour développer une IA open source et bénéfique pour l'humanité, sans contrainte de rentabilité financière, a renoncé à sa mission initiale. Elle envisage même de se restructurer en une entreprise à but lucratif.
Le 17 novembre 2023, Sam Altman a été brusquement renvoyé par le conseil d'administration d'OpenAI. Ce dernier avait déclaré que Sam Altman n’était pas toujours franc dans ses échanges, ce qui nuisait à la capacité du conseil d’exercer son rôle de supervision. Il n’aurait pas informé le conseil de son implication dans OpenAI Startup Fund, un fonds dont il prenait les décisions, tout en affirmant être un membre indépendant sans intérêts financiers.
Certains dirigeants avaient signalé des comportements jugés abusifs et une atmosphère toxique, évoquant du « harcèlement psychologique ». Sam Altman a été réintégré dans son rôle quelques jours plus tard, mais son retour a provoqué des remous dans l'entreprise, notamment de nombreuses démissions.
OpenAI était au départ une société à but non lucratif. Mais l'entreprise a créé en 2019 une entité à but lucratif « plafonné », ce qui a ouvert la porte à des investissements massifs de la part de Microsoft. Cela exige inévitablement un retour sur investissement. Cette pression sur la rentabilité financière a malheureusement déplacé l'accent de la recherche fondamentale et de la sécurité vers la commercialisation rapide de produits d'IA, comme ChatGPT.
Sam Altman sur l'impact de l'IA sur les travailleurs : « personne ne le sait »
Lors de la conférence de la Fed de Washington, Sam Altman a été interrogé sur l'impact de l'IA sur l'emploi. En réponse, il a déclaré qu'il n'était pas aussi inquiet que certains de ses pairs de la Silicon Valley quant à l'impact potentiel de l'IA sur la main-d'œuvre. Des dirigeants tels que Dario Amodei, PDG d'Anthropic, et Andy Jassy, PDG d'Amazon, ont déclaré que l'IA générative va probablement supprimer des millions d'emplois dans les années à venir.
Au contraire, Sam Altman estime que personne ne sait réellement ce qui va se passer. « Il y a beaucoup de prédictions qui semblent très intelligentes. Du genre : "oh, ceci va se produire dans tel domaine et l'économie va évoluer comme ça. Personne ne le sait. À mon avis, le système est trop complexe, la technologie est trop nouvelle et a un impact trop important, il est très difficile de faire des prédictions », a-t-il déclaré. Il a toutefois quelques idées.
Selon lui, si des catégories entières d'emplois vont disparaître, de nouveaux types de travail vont apparaître. Il a répété une prédiction qu'il avait déjà faite auparavant, à savoir que si le monde pouvait se projeter 100 ans dans l'avenir, les travailleurs de demain n'auraient probablement pas ce que les travailleurs d'aujourd'hui considèrent comme de « vrais emplois ». Il a expliqué que les gens pourraient inventer leurs propres emplois dans le futur.
« Vous avez tout ce dont vous pourriez avoir besoin. Vous n'avez rien à faire. Vous inventez donc un emploi pour jouer à un jeu de statut ridicule, pour occuper votre temps et pour vous sentir utile aux autres », a-t-il déclaré. En gros, Sam Altman semble expliquer que nous ne devrions pas nous inquiéter du fait que l'IA nous vole nos emplois, car à l'avenir, nous n'aurons de toute façon plus vraiment besoin de travailleur pour subvenir à nos besoins.
Cependant, lors de la conférence, Sam Altman n'a pas précisé comment les futurs outils d'IA pourraient, par exemple, plaider de manière fiable une affaire devant un tribunal, nettoyer les dents de quelqu'un ou construire une maison. « Cela relève de l'utopie et cache un appât pour investisseurs », a écrit un critique. L'industrie technologique a déjà supprimé plus de 80 000 postes depuis le début de l'année 2025 ; elle en a supprimé plus de 150 000 en 2024.
Conclusion
En mettant en garde contre une « crise de fraude » imminente, Sam Altman ne fait pas que tirer la sonnette d’alarme : il invite les acteurs financiers à ne pas sous-estimer la puissance de l’IA. Pour lui, il ne s’agit pas d’une menace lointaine, mais d’un risque immédiat auquel il faut répondre dès maintenant, sous peine de voir la confiance dans le système bancaire fortement ébranlée. Ses inquiétudes sont étayées par plusieurs cas de vols déjà recensés.
Mais comment doit-on interpréter cette mise en garde ? En effet, Sam Altman est l’un des principaux architectes de l’essor de l'IA générative. Il alerte régulièrement sur les risques majeurs de l'IA — notamment les fraudes, les manipulations, les pertes d’emplois ou encore la désinformation — tout en étant à la tête d’une entreprise qui accélère massivement son développement. Cette dualité soulève des questions éthiques, stratégiques et politiques.
Cette posture soulève une question fondamentale : peut-on à la fois craindre une technologie et être son principal promoteur (ou développeur) ? Pour beaucoup, la réponse dépendra moins des intentions affichées que des choix concrets en matière de régulation, de transparence et de responsabilité.
Source : Sam Altman, PDG d'OpenAI
Et vous ?



Voir aussi



Vous avez lu gratuitement 170 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.