Le New York Times poursuit Microsoft et OpenAI, le créateur de ChatGPT, affirmant que des millions de ses articles de presse ont été utilisés à mauvais escient par les entreprises technologiques pour former leurs chatbots alimentés par l'IA. C'est la première fois qu'une des grandes sociétés de médias traditionnelles américaines s'attaque à la nouvelle technologie devant les tribunaux. Et cela déclenche une confrontation sur l’utilisation de plus en plus controversée de contenus protégés par le droit d’auteur pour alimenter les logiciels d’intelligence artificielle.Cecilia Ziniti, avocate de la Silicon Valley, a analysé la plainte du quotidien.
En août, nous avons appris que le New York Times envisageait de rejoindre la légion croissante de créateurs qui poursuivent les sociétés d'IA pour détournement de leur contenu : le quotidien a déclaré être contre l'utilisation de son contenu sans son accord en mettant à jour ses conditions d'utilisation. Le Times a tenté de négocier avec OpenAI des accords concernant la possibilité pour l'entreprise d'IA d'obtenir une licence pour son matériel, mais ces négociations ne se sont pas déroulées sans heurts. Quelques mois après que l'entreprise a envisagé des poursuites en justice, elle a décidé de passer à l'acte en déposant une plainte.
Le Times cible diverses entreprises sous l'égide d'OpenAI, ainsi que Microsoft, un partenaire OpenAI qui l'utilise à la fois pour alimenter son service Copilot et a contribué à fournir l'infrastructure pour la formation du grand modèle linguistique GPT. Mais la poursuite va bien au-delà de l'utilisation de matériel protégé par le droit d'auteur dans la formation, alléguant que les logiciels basés sur OpenAI contourneront volontiers le paywall du Times et attribueront au Times des informations erronées hallucinées.
Une concurrence déloyale
Comme indiqué dans le procès, le Times allègue qu’OpenAI et les grands modèles linguistiques (LLM) de Microsoft, qui alimentent ChatGPT et Copilot, « peuvent générer une sortie qui récite textuellement le contenu du Times, le résume fidèlement et imite son style expressif ». Cela « mine et endommage » la relation du Times avec ses lecteurs, affirme le média, tout en le privant « d’abonnements, de licences, de publicité et de revenus d’affiliation ».
La plainte affirme également que ces modèles d’IA « menacent un journalisme de haute qualité » en nuisant à la capacité des médias à protéger et à monétiser le contenu. « Grâce au Bing Chat de Microsoft (récemment rebaptisé « Copilot ») et au ChatGPT d’OpenAI, les accusés cherchent à profiter gratuitement de l’investissement massif du Times dans son journalisme en l’utilisant pour créer des produits de substitution sans autorisation ni paiement », indique la plainte.
Pendant ce temps, la publication de modèles d’IA formés sur le contenu du Times s’est avérée « extrêmement lucrative » à la fois pour Microsoft et pour OpenAI, indique la plainte.
Cette dernière ne comprend pas de demande monétaire exacte. Mais le quotidien affirme que les accusés devraient être tenus responsables de « milliards de dollars de dommages-intérêts légaux et réels » liés à « la copie et l’utilisation illégales des œuvres d’une valeur unique du Times ». Il appelle également les entreprises à détruire tous les modèles de chatbot et les données de formation qui utilisent du matériel protégé par le droit d'auteur du Times.
La construction d'un « un modèle économique basé sur la violation massive du droit d’auteur »
La plainte cite plusieurs exemples de ChatGPT récitant des extraits de journalistes du New York Times presque entièrement mot pour mot. Un exemple cité dans les documents judiciaires est une enquête en cinq parties sur l'industrie des taxis à New York, publiée en 2019. Le Times affirme que son enquête a porté sur 600 entretiens, plus de 100 demandes de dossiers et l'examen de milliers de pages de documents tels que des relevés bancaires.
« OpenAI n'a joué aucun rôle dans la création de ce contenu, mais avec un minimum d'incitations, il en récitera de grandes parties textuellement », indique la plainte.
La poursuite allègue qu'il est facile d'amener des systèmes alimentés par GPT à proposer du contenu qui est normalement protégé par le paywall du Times. La poursuite montre un certain nombre d'exemples de GPT-4 reproduisant de grandes sections d'articles presque textuellement. La poursuite comprend des captures d'écran de ChatGPT recevant le titre d'un article du New York Times et demandant le premier paragraphe, ce qu'il livre. Obtenir le texte qui suit est apparemment aussi simple que de demander à plusieurs reprises le paragraphe suivant....
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Peut-on réellement faire confiance au code généré par l'IA sans relecture humaine ?