Microsoft a déposé une requête visant à rejeter des éléments clés d’une plainte déposée par le New York Times contre l’entreprise et OpenAI, les accusant de violation du droit d’auteur. Pour rappel, le Times a poursuivi les deux sociétés pour avoir utilisé ses articles publiés pour former leurs modèles de langage GPT (large language models, LLM) sans autorisation ni compensation. Dans sa requête, Microsoft accuse le Times de propager une « futurologie apocalyptique » en affirmant que les technologies d’intelligence artificielle (IA) représentent une menace pour le journalisme indépendant. Cette démarche fait suite au dépôt d’OpenAI fin février, qui cherchait également à rejeter certains éléments clés de l’affaire.Microsoft a déposé lundi une requête auprès d'un tribunal fédéral visant à rejeter certaines parties d'un procès intenté par la New York Times Company.
Le 27 décembre, le Times a intenté un procès à Microsoft et à son partenaire OpenAI, accusant les deux sociétés de violer ses droits d'auteur en utilisant ses articles pour former des technologies d'intelligence artificielle telles que le chatbot IA ChatGPT. Les chatbots concurrencent l'organe d'information en tant que source d'information fiable, selon la plainte.
La plainte du New York Times citait plusieurs exemples où les chatbots d’OpenAI et de Microsoft donnaient aux utilisateurs des extraits quasi textuels de ses articles lorsqu’ils étaient sollicités. Elle accusait OpenAI et Microsoft de vouloir « profiter gratuitement de l’énorme investissement du Times dans le journalisme » et de créer un substitut au journal.
L'éditeur estime que les utilisateurs de la technologie d'OpenAI - que Microsoft applique à l'ensemble de son empire logiciel et cloud - pourraient effectivement contourner le paywall du journal et lire des articles gratuitement en demandant au chatbot de générer des morceaux de texte qu'il a couvert, privant ainsi l'entreprise de l'argent de ses abonnements.
Dans sa requête, déposée auprès du tribunal de district des États-Unis pour le district sud de New York, Microsoft a fait valoir que les grands modèles de langage, ou L.L.M. - les technologies qui alimentent les chatbots - ne supplantaient pas le marché des articles d'actualité et des autres documents sur lesquels ils ont été formés.
La requête de Microsoft était similaire à celle déposée par OpenAI la semaine dernière
Dans une motion demandant le rejet de l'affaire, OpenAI a estimé que les preuves fournies par le journal « semblent avoir été des efforts prolongés et étendus pour pirater les modèles d'OpenAI », et a nié que ChatGPT puisse détourner les gens des paywall, ajoutant que les gens n'utilisent pas le chatbot pour lire des articles publiés de toute façon.
OpenAI a allégué que « 100 exemples dans lesquels une version du modèle GPT-4 d'OpenAI a soi-disant généré plusieurs paragraphes du contenu du Times en réponse à des invites de l'utilisateur » ne reflètent pas la façon dont les gens normaux utilisent ChatGPT.
Au contraire, il aurait fallu au Times « des dizaines de milliers de tentatives pour générer » ces supposés « résultats hautement anormaux » en « ciblant et en exploitant un bogue » qu'OpenAI affirme s'être maintenant « engagée à corriger ».
Selon OpenAI, cette activité équivaut à des « attaques fabriquées » par un « tueur à gages », qui aurait piraté les modèles OpenAI jusqu'à ce qu'ils hallucinent du faux contenu du NYT ou régurgitent des données d'entraînement pour reproduire les articles du NYT. Le NYT aurait payé pour ces « attaques » afin de recueillir des preuves à l'appui des affirmations du Times selon lesquelles les produits d'OpenAI mettent en péril son journalisme en régurgitant prétendument des reportages et en volant l'audience du Times.
OpenAI n’a pas nommé la personne qu’elle qualifie de « tueur à gages » et n’a pas accusé le journal d’enfreindre les lois anti-piratage.
Tout comme OpenAI avant elle, Microsoft accuse le Times...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Peut-on réellement faire confiance au code généré par l'IA sans relecture humaine ?