Chez Palantir, les dirigeants sont très enthousiastes à propos de l'IA, multiplient les déclarations provocatrices à l’égard des discours alarmistes qui entourent la technologie et font campagne contre sa réglementation. Shyam Sankar, directeur technique de Palantir, se dit sceptique quant aux scénarios catastrophistes liés à l'IA. Il a déclaré que la peur de l’IA est en grande partie « le produit d’un vide spirituel » dans la société moderne, et plus particulièrement dans la Silicon Valley. Précédemment, le milliardaire Peter Thiel, président de Palantir, a suggéré que l'adoption d'une réglementation sur l'IA pourrait précipiter l'arrivée de « l'Antéchrist ».Dans une récente interview accordée à Ross Douthat du New York Times, Shyam Sankar, directeur technique de Palantir, a livré à une réflexion provocatrice sur les détracteurs et les personnes qui pensent que l'IA représente une menace existentielle pour l'humanité. Selon lui, ces craintes sont l'expression d'un manque de croyance en Dieu. « Je pense que les laïcs de la Silicon Valley comblent le vide laissé par Dieu dans leur cœur avec l'AGI », a-t-il déclaré.
L'idée selon laquelle l'IA entraînera un scénario catastrophique, tel que le chômage de masse ou l'extinction, est connue sous le nom de « doomerisme ». De nombreux experts, tels que Geoffrey Hinton, parrain de l'IA, mettent en garde contre ces risques. Mais Shyam Sankar les balaie d'un revers de main.
« C'est comme si, d'accord, les modèles s'amélioraient. Pourquoi pensez-vous que cette catastrophe va se produire et qu'ils vont nous transformer en chats domestiques ? Les personnes qui ont une religion sont les plus sceptiques à ce sujet. Les transhumanistes, quant à eux, en font leur souhait le plus cher, puis se mettent à propager leur pessimisme », a-t-il ajouté. Il estime que les gens devraient cesser de s'imaginer des scénarios comme dans Terminator.
Selon Geoffrey Hinton, l'IA représente une menace existentielle pour l'humanité. Il a affirmé que l'IA rendrait la société « de plus en plus mauvaise » en creusant l'écart de richesse entre les plus riches et les plus pauvres. Au début de l'année, il a déclaré qu'une superintelligence, ou une IA dont les capacités cognitives dépassent celles des humains dans tous les domaines, apparaîtra d'ici 5 à 20 ans. Il a ajouté que l'IA entraînera un chômage massif à l'avenir.
La déclaration de Shyam Sankar est critiquée comme étant trop schématique : elle met toutes les personnes non croyantes dans un même panier, et suppose que les croyants ont nécessairement une perspective plus modérée sur l’IA, ce qui n’est pas prouvé et relève d’une vision simpliste.
Il décrit ce catastrophisme comme un outil de levée de fonds
Shyam Sankar a fait ces commentaires lorsque le journaliste lui a demandé si Palantir a pour objectif de développer pour l'armée des systèmes d'IA qui pourraient remplacer la prise de décision humaine. « Je ne pense pas que cela fonctionnerait comme les gens l'imaginent dans le scénario cauchemardesque de Terminator », dit-il, ajoutant que l'intégration de l'IA dans la technologie militaire apporte davantage « une différence de degré » que de nature.
Il rejette l’idée que l’IA mènera à la disparition de l’humanité ou à un bouleversement total du travail humain. Il considère les discours alarmistes comme exagérés, voire intéressés. Shyam Sankar va jusqu’à dire que ces discours apocalyptiques servent parfois de stratégie marketing ou de levée de fonds : présenter sa technologie comme tellement puissante qu’elle pourrait détruire le monde revient à la rendre plus désirable pour les investisseurs.
Selon lui, ce catastrophisme est un stratagème de collecte de fonds permettant aux acteurs à la pointe du développement de l'IA de dire : « ma technologie est si puissante qu'elle va entraîner un chômage de masse, alors vous feriez mieux d'investir dans mon entreprise, sinon vous allez vous retrouver pauvres ».
Par ce discours, il met en cause les acteurs de l’IA qui alertent sur les risques, alors que lui-même travaille pour une entreprise très engagée dans l’IA et la défense. Son discours ressemble à une tentative de déplacer le débat pour diminuer les inquiétudes et favoriser le développement (et l’investissement) de l’IA.
Un discours fortement controversé dans la communauté
Au-delà de la provocation, Shyam Sankar met en avant une dimension culturelle et psychologique : la manière dont les sociétés interprètent l’IA dépendrait de leur rapport au sens et à la transcendance. Là où la foi offre un cadre pour penser les limites humaines et le mystère, l’absence de religion pourrait, selon lui, pousser certains à transférer ce besoin spirituel vers la technologie et à y projeter des récits de salut ou de destruction.
En traitant les scénarios d’extinction ou de remplacement massif du travail par l’IA comme un « stratagème de levée de fonds », Shyam Sankar met en cause la validité de ces inquiétudes. Cependant, de nombreux chercheurs et analystes estiment que même si ces scénarios extrêmes sont peu probables, il existe des risques concrets autour de la vie privée, de l’automatisation, de la guerre technologique ou de l’éthique des algorithmes.
Par exemple, des rapports soulignent que la diffusion de contenus synthétiques générés par l’IA contribue à des atteintes à la démocratie et à la sûreté, tout en créant une crise de confiance dans les interactions en ligne. En ce sens, certains jugent que Sankar minimise à outrance les effets potentiels négatifs.
Peter Thiel quant à lui a déclaré que la réglementation de l'IA ou de la science en général pourrait conduire à l’avènement d’un pouvoir mondial autoritaire. Il a assimilé ce pouvoir redoutable à l’Antichrist. Ce discours à mi-chemin entre foi et politique a été perçu comme provocateur et une nouvelle campagne contre la réglementation. Il met en garde contre les promesses de « paix et sécurité » des projets de réglementation des technologies émergentes.
Dans la communauté, les discours de Shyam Sankar et de Peter Thiel sont fortement controversés. « Le discours de Shyam Sankar est une inversion morale totale. Les transhumanistes veulent une superintelligence - comme son patron transhumaniste Peter Thiel qui a qualifié la régulation de l’IA comme l'Antéchrist. Même le pape est très critique à l’égard de la superintelligence et des risques existentiels liés à cette technologie », a écrit un critique.
Les enjeux et controverses de la rhétorique de Peter Thiel
Peter Thiel mêle des références bibliques et des scénarios de fin des temps aux débats actuels sur l’IA. L’argument central du milliardaire est que la régulation, censée protéger la société des risques de l’IA, pourrait en réalité créer « une structure de contrôle mondial plus dangereuse encore ». Pour Peter Thiel, dans ce scénario, cette régulation ne serait pas une protection, mais le terreau d’un autoritarisme justifié par des promesses de « paix et sécurité ».
Mais ce discours soulève plusieurs critiques. Certains critiques y voient une manière d’habiller de rhétorique religieuse la défense d’intérêts économiques, puisque Peter Thiel est lui-même investi dans les technologies de pointe, notamment à travers Palantir. D’autres s’inquiètent de l'effet de cette rhétorique apocalyptique, qui risque de polariser le débat et de rendre plus difficile la recherche de compromis raisonnables sur la réglementation de l’IA.
Palantir a annoncé la semaine dernière qu'il investira plus de 2 milliards de dollars au Royaume-Uni, créant ainsi jusqu'à 350 emplois, dans le cadre d'une série d'annonces faites par des entreprises technologiques américaines à l'occasion de la visite officielle de Donald Trump. En contrepartie, le ministère de la Défense devrait dépenser plus d'un milliard de dollars pour acquérir la technologie d'IA de Palantir, qui pourrait aider à identifier des cibles sur le champ de bataille lors d'une future guerre. Cet accord a suscité des inquiétudes quant au fait qu'il pourrait se faire au détriment des entreprises et des emplois britanniques.
Un rapport de Francesca Albanese, rapporteuse spéciale sur les territoires palestiniens occupés, adressé au Conseil des droits de l'homme des Nations unies, a critiqué le travail de certaines entreprises, dont Palantir, avec Israël et les Forces de défense israéliennes. Bloomberg avait précédemment rapporté que les forces de défenses d'Israël (Tsahal) utilisaient un logiciel militaire développé par Palantir pour frapper des cibles à Gaza.
L'entreprise a réfuté ce qu'elle qualifie d'allégation « sans fondement » selon lesquelles elle serait le développeur d'un logiciel...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.