Le 29 mai, Axios a annoncé que The Atlantic et Vox Media ont conclu des accords avec OpenAI, permettant à la société d'utiliser sous licence leur contenu éditorial pour améliorer ses modèles de langage, dont ChatGPT. Ces accords renforcent OpenAI en lui fournissant des contenus pour entraîner ses algorithmes et chatbots, tout en la protégeant contre les responsabilités liées aux droits d'auteur. Les partenariats permettent à OpenAI d'utiliser les contenus archivés et actuels de The Atlantic et de Vox Media, en citant les sources et en incluant des liens vers les articles des éditeurs lorsqu'ils sont mentionnés dans les réponses générées par ChatGPT.
Ces accords comprennent également une collaboration sur les produits, avec The Atlantic travaillant avec OpenAI via le projet expérimental Atlantic Labs pour façonner la présentation des articles. Vox Media utilisera la technologie d'OpenAI pour optimiser la création publicitaire et les recommandations de contenu sur ses sites web. Bien que les termes financiers n'aient pas été divulgués, il est supposé que les éditeurs sont rémunérés pour leur contenu. De plus en plus de grandes entreprises d'information préfèrent conclure des accords avec OpenAI plutôt que d'engager des poursuites judiciaires, ce qui peut être plus rapide et avantageux financièrement.
Cependant, certaines organisations, comme le New York Times, choisissent de poursuivre OpenAI pour obtenir potentiellement des dommages-intérêts plus élevés. En août 2023, le New York Times a mis à jour ses conditions d’utilisation pour interdire l’utilisation de son contenu dans l’entraînement de modèles d’IA sans son autorisation écrite. Selon la section 2.1 de ces conditions :
Envoyé par New York Times
OpenAI a réagi en qualifiant l'affaire de « sans fondement » et en exprimant son souhait de conclure un partenariat avec le New York Times. Dans un billet de blog, OpenAI a contesté les allégations, affirmant que le Times avait manipulé les messages-guides pour inclure des extraits régurgités d'articles. OpenAI a déclaré que ses modèles ne se comportent généralement pas de la manière décrite par le Times, suggérant que les exemples utilisés dans la plainte avaient été choisis parmi de nombreuses tentatives pour donner cette impression. OpenAI accuse également le New York Times d'avoir employé des méthodes de hacking pour fabriquer des preuves trompeuses, affirmant qu'un tiers engagé par le Times a effectué des dizaines de milliers de tentatives pour obtenir des résultats hautement anormaux à partir de ChatGPT et d'autres systèmes d'intelligence artificielle.
Contrairement au New York Times, le Financial Times a opté pour un accord de licence de contenu avec OpenAI pour alimenter officiellement son IA générative. Le quotidien britannique a annoncé un partenariat stratégique et un accord de licence avec OpenAI, permettant à OpenAI d’utiliser le contenu archivé du Financial Times pour former ses modèles d’IA. Cet accord vise à améliorer la technologie de l’IA générative et à intégrer le journalisme du Financial Times dans ChatGPT, tout en développant de nouveaux produits et fonctionnalités pour les lecteurs du Financial Times. En outre, le Financial Times est devenu client de ChatGPT Enterprise, offrant à tous ses employés l’accès à la technologie pour bénéficier des gains de créativité et de productivité rendus possibles par les outils d’OpenAI. L’accord permet à ChatGPT de répondre aux questions par de courts résumés d’articles du Financial Times, avec des liens vers FT.com, offrant ainsi aux utilisateurs de ChatGPT un accès direct aux articles du Financial Times.
Les consequences des partenariats Openai sur l'industrie de l'information
Les accords signés par OpenAI avec The Atlantic et Vox Media pour utiliser leur contenu afin de perfectionner ses modèles de langage ont suscité des réactions diverses parmi les journalistes et leurs syndicats. Ces derniers déplorent le manque de transparence de ces accords et craignent des impacts négatifs sur leur travail, notamment en ce qui concerne l'intégrité éditoriale et les implications éthiques et environnementales de l'IA. De plus, ils s'inquiètent des conséquences potentielles de ces partenariats sur le trafic et les revenus des éditeurs.
Le manque de consultation des rédacteurs, comme l'a exprimé la journaliste de Vox Kelsey Piper, souligne une fracture entre la direction et les employés sur des décisions stratégiques majeures. Elle a déclaré sur X : « Je suis très frustrée qu'ils aient annoncé cela sans consulter leurs rédacteurs, mais j'ai reçu des assurances écrites de notre rédacteur en chef qu'ils veulent plus de reportages comme ceux des deux dernières semaines et qu'ils n'interviendront jamais dans ces reportages. Si c'est faux, je démissionnerai ».
Les accords, bien que potentiellement bénéfiques pour la technologie de l'IA, suscitent des inquiétudes concernant la pérennité des emplois journalistiques et la qualité de l'information produite. D'un côté, certains estiment que l'automatisation pourrait libérer les travailleurs des tâches répétitives et pénibles, permettant ainsi une réinvention du travail et de l'économie. D'autres, cependant, perçoivent ces évolutions comme une menace directe pour les emplois existants, en particulier dans le journalisme, où l'IA pourrait remplacer les rédacteurs pour certaines tâches sans garantir la même profondeur et nuance dans le traitement des informations.I'm very frustrated they announced this without consulting their writers, but I have very strong assurances in writing from our editor in chief that they want more coverage like the last two weeks and will never interfere in it. If that's false I'll quit.
— Kelsey Piper (@KelseyTuoc) May 30, 2024
Les journalistes de Vox, qui avaient des attentes spécifiques concernant l'utilisation de leur travail, se sentent trahis par les changements unilatéraux imposés par la direction. Cette situation souligne l'importance de consulter et de renégocier avec les employés lorsque des modifications substantielles de la nature de leur travail sont envisagées. De plus, les inquiétudes liées à la baisse du trafic des moteurs de recherche vers les éditeurs en raison des chatbots et des produits de recherche génératifs représentent une préoccupation légitime. Cela pourrait non seulement menacer les moyens de subsistance des créateurs de contenu, mais aussi appauvrir la diversité et la richesse de l'Internet.
Bien que les accords avec OpenAI puissent offrir des avantages technologiques et économiques, ils soulèvent des questions importantes concernant la transparence, les conditions de travail, l'éthique et l'impact sur l'industrie du journalisme. Ces préoccupations nécessitent une réflexion approfondie et une gestion prudente pour équilibrer les bénéfices de l'IA avec la protection des droits et des emplois des journalistes.
Sources : Atlantic union, Axios
Et vous ?
Quels seraient les effets des partenariats entre OpenAI et les médias sur le trafic et les revenus des éditeurs, et comment ces effets peuvent-ils être gérés ?
En quoi le manque de consultation des journalistes avant la signature de ces accords pourrait-il influencer la confiance et la motivation des employés de ces entreprises ?
Dans quelle mesure ces accords pourraient-ils menacer la diversité et la richesse des informations disponibles sur Internet ?
Voir aussi :
Le New York Times poursuit OpenAI et Microsoft pour violation des droits d'auteur, afirmant que des "millions d'articles" ont été utilisés pour former des chatbots
OpenAI affirme que le New York Times a trompé ChatGPT pour qu'il copie ses articles. Malgré un procès intenté le mois dernier, l'entreprise IA souhaite toujours travailler avec le quotidien
Alors que le New York Times poursuit OpenAI pour violation des droits d'auteur, le Financial Times accepte de conclure un accord de licence de contenu avec OpenAI pour alimenter officiellement son IA générative