Le PDG de Krafton suit les conseils de ChatGPT pour éviter de payer un bonus contractuel de 250 millions de dollars à des collaborateurs, ignore ses avocats et essuie une cuisante défaite devant les tribunauxLe PDG de Krafton vient de payer le prix d’une confiance excessive accordée à ChatGPT. Changhan Kim avait racheté Unknown Worlds Entertainment, l'éditeur du jeu vidéo Subnautica, pour 500 millions de dollars. Le contrat prévoit un bonus supplémentaire de 250 millions si la suite du jeu, Subnautica 2, atteint certains objectifs de ventes. Il garantit aussi l'indépendance du studio et le maintien de son équipe dirigeante. Mais jugeant cet accord trop lucratif, Changhan Kim a licencié d'anciens actionnaires d'Unknown Worlds, puis a utilisé ChatGPT pour élaborer un plan visant à éviter de payer le bonus. Il a lamentablement perdu devant un tribunal du Delaware.
Unknown Worlds Entertainment est le studio à l'origine du jeu de survie sous-marine Subnautica, dont la première version remonte à 2018. La société travaille depuis sur la suite, Subnautica 2. En 2021, l'éditeur sud-coréen Krafton, créateur de TERA, a racheté Unknown Worlds Entertainment pour environ 500 millions de dollars et s'est engagé à verser 250 millions de dollars supplémentaires si Subnautica 2 se vendait suffisamment bien.
La transaction garantissait l'indépendance d'Unknown Worlds Entertainment et le maintien de son équipe dirigeante. Les prévisions de ventes internes de Krafton pour Subnautica 2 montraient qu'il était bien parti pour déclencher le paiement de ce joli pactole. C'est là que les problèmes voient le jour.
Panique face au bonus et licenciement des cofondateurs
Le litige a débuté en juillet 2025 après que les fondateurs d'Unknown Worlds Entertainment ont été licenciés de manière inattendue par Krafton à l'approche de la sortie de la suite Subnautica 2. Les anciens actionnaires du studio ont accusé Krafton et son PDG, Changhan Kim, d'avoir licencié à tort les cofondateurs, ainsi que le PDG Ted Gill, afin d'éviter de verser la prime de plusieurs millions de dollars si le titre atteignait certains objectifs de vente.
Changhan Kim considère en privé avoir signé un contrat trop favorable à l'autre partie. Afin d'éviter de payer cette prime colossale aux développeurs, il s'est associé à Maria Park, responsable du développement d'entreprise chez Krafton, ainsi qu'à l'équipe juridique de la société pour étudier les différentes options.
Il a envisagé de trouver un motif pour licencier les fondateurs. D'après les dossiers judiciaires, Maria Park a déclaré à Changhan Kim que tenter d'éviter de verser la prime présenterait un risque juridique. « Bonjour, Monsieur le PDG... Il semble très probable que la prime de performance soit tout de même versée si l'objectif de vente est atteint, indépendamment du licenciement pour motif valable », indiquait le message par Maria Park sur Slack.
« Par conséquent, nous n'avons pas grand-chose à gagner concrètement, si ce n'est une sanction sous la forme d'un simple licenciement, alors que je crains que nous ne nous exposions à un risque de poursuites judiciaires et d'atteinte à notre réputation », poursuit le message. Mais le PDG de l'éditeur refusait d'admettre sa défaite. « C'est ainsi que Kim s'est tourné vers ChatGPT pour obtenir de l'aide », peut-on lire dans les dossiers judiciaires.
Changhan Kim remplace son équipe juridique par ChatGPT
Changhan Kim s'est tourné vers ChatGPT pour trouver un moyen d'échapper au paiement des 250 millions de dollars aux développeurs de Subnautica. L'IA lui a dit dans un premier temps qu'il serait difficile d'annuler le paiement. « Lorsque le chatbot IA a répondu que la clause d'earn-out serait difficile à annuler, Kim s'est plaint auprès de Park, affirmant que ce [paiement] constituait un « contrat qui ne fait que nous mener par le bout du nez » ».
Il a insisté auprès du chatbot pour obtenir une réponse. C'est là qu'intervient Projet X : former une équipe interne pour renégocier, prendre le contrôle des droits de distribution du jeu, et présenter le conflit non pas comme une dispute financière, mais comme une question de qualité et de confiance envers les joueurs. ChatGPT rédige même un message public en ce sens, qui se retourne contre Krafton et éveille les soupçons de la communauté.
D'après les dossiers judiciaires, Kim a suivi les conseils de ChatGPT plutôt que ceux de ses avocats. La première étape consistait à publier un message sur le site Web de Subnautica afin de rallier les fans à sa cause. Selon les documents judiciaires, Changhan Kim a déclaré que l'objectif de ce message était « d'obtenir le soutien public des fans et la validation juridique de notre légitimité ». Mais le message a eu l'effet inverse de celui escompté.
La justice tranche
Les fans ont trouvé le message bizarre et se sont inquiétés pour l'avenir du jeu. Ces craintes se sont amplifiées lorsque Changhan Kim a licencié les créateurs originaux du jeu et s'est engagé dans une bataille juridique contre eux. La bataille juridique se poursuit, mais Changhan Kim semble voué à l'échec. Le juge lui a ordonné de réintégrer les développeurs licenciés abusivement et a mis en lumière l'utilisation maladroite de ChatGPT par le PDG.
La juge Lori Will, du tribunal de chancellerie du Delaware, conclut que Krafton a illégalement renversé la direction d'Unknown Worlds. Elle affirme que les dirigeants d'entreprise doivent exercer un jugement humain indépendant, pas sous-traiter leurs décisions à un chatbot. Ted Gill est réintégré dans ses fonctions, avec le pouvoir de rappeler les cofondateurs. Et la période de calcul du bonus est prolongée pour compenser les perturbations causées.
L'IA s'invite dans les tribunaux, mais fait perdre les procès
Le phénomène des hallucinations d'IA dans les tribunaux prend une ampleur telle qu'un chercheur français a créé une base de données exhaustive pour en suivre l'évolution. Damien Charlotin, praticien indépendant chez Pelekan Data Consulting à Paris et chercheur associé au Smart Law Hub de HEC, maintient depuis avril 2025 un recensement méticuleux de tous les cas judiciaires où des contenus hallucinés par l'IA ont été soumis aux tribunaux.
Début février 2026, sa base de données comptabilisait 905 décisions judiciaires documentées provenant de 32 pays différents. Les États-Unis dominent largement le classement avec 628 cas, suivis par le Canada (59), l'Australie (55), le Royaume-Uni (35) et Israël (40). La France compte pour l'instant six cas recensés, mais le chercheur Damien Charlotin précise que son inventaire est un travail en cours qui continue de s'enrichir quotidiennement.
Damien Charlotin a développé PelAIkan, un vérificateur automatique de références capable de détecter les hallucinations juridiques. L'outil analyse les citations contenues dans les documents juridiques et les compare aux bases de données officielles pour identifier les références inexistantes ou erronées.
Des petits cabinets sont les plus touchés par ce phénomène
Une étude réalisée à partir des données de Charlotin révèle un profil type des victimes d'hallucinations. Sur 114 cas américains analysés où un avocat (et non un justiciable) était impliqué, 90% concernaient des praticiens exerçant en solo ou dans de petits cabinets. Cela s'explique probablement par des contraintes budgétaires limitant l'accès aux systèmes d'IA juridique professionnels payants, plus fiables que les solutions gratuites comme ChatGPT.
L'analyse révèle également une asymétrie entre demandeurs et défendeurs : dans 56% des cas, les hallucinations provenaient du conseil du demandeur, contre seulement 31% du côté de la défense. Quant aux outils impliqués, lorsque le système d'IA était identifié, ChatGPT représentait la moitié des cas documentés.
L'affaire Feldman s'inscrit donc dans une série croissante de cas similaires à travers le monde. En janvier 2026, un avocat australien a présenté ses excuses à un tribunal pour avoir soumis des documents contenant de fausses citations et des jugements inexistants dans une affaire de meurtre. Au Canada, des praticiens du droit constatent une multiplication des documents générés par l'IA soumis aux tribunaux, avec leur lot d'hallucinations juridiques.
Le cas fondateur reste l'affaire Mata v. Avianca de 2023, où des avocats new-yorkais avaient soumis des citations complètement fabriquées par ChatGPT. Le juge fédéral Kevin Castel avait alors sanctionné les avocats, tout en reconnaissant leurs excuses et les mesures correctives prises. Depuis, les tribunaux se montrent de plus en plus vigilants, imposant des exigences strictes de divulgation et des sanctions sévères en cas de violations.
Source : document judiciaire (PDF)
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de la tentative du PDG de Krafton de saboter un contrat à l'aide de ChatGPT ?
L'utilisation de l'IA en tant que conseiller juridique devient un phénomène mondial ? Qu'en pensez-vous ?
Selon vous, l'IA est-elle bien outillée pour jouer le rôle de conseiller juridique ou d'avocat ? Pourquoi ?Voir aussi
Dans deux nouvelles affaires judiciaires, les juges concluent que « l'IA ne possède pas d'intelligence humaine » et que ses productions ne peuvent pas être protégées par le droit d'auteur
Comment l'IA générative peut faire perdre un procès : un avocat condamné après avoir soumis des jurisprudences totalement inventées par ChatGPT, son client en fait les frais et écope d'un jugement par défaut
Les avocats utilisent l'IA pour bâcler leurs plaidoiries et la situation s'aggrave, un mouvement se développe au sein de la profession pour recenser les affaires inventées par l'IA utilisées par leurs confrères
Vous avez lu gratuitement 2 706 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.