OpenAI a procédé à la suspension du compte de l’entreprise chinoise ByteDance. Motif : utilisation des données de GPT aux fins d’entrainement d’un modèle d’intelligence artificielle concurrent dans le cadre du projet dénommé Seed. Le rapport qui intervient dans un contexte où OpenAI fait l’objet de multiples accusations pour utilisation du contenu de tiers sans leur accord ravive la controverse autour du droit d’auteur.En effet, OpenAI reproche à ByteDance d’être en violation des conditions d’utilisation de son service qui stipulent que « la sortie de son modèle d’intelligence artificielle ne peut être exploitée pour développer un modèle d’IA concurrent. » C’est en droite ligne avec cet état de choses que le journaliste Alex Health rapporte qu’OpenAI a procédé à la suspension du compte de ByteDance – l’entreprise chinoise connue comme éditrice de TikTok.
La décision d’OpenAI est sujette à controverse étant donné qu’elle s’apparente à une revendication de du droit d’auteur sur la sortie produite par GPT. Or de récentes directives de l’US Copyright Office stipulent que « le contenu généré par l’intelligence artificielle ne peut être protégé par le droit d’auteur que dans certaines conditions spécifiques. » Et c’est d’ailleurs ce que de nombreux observateurs n’ont pas manqué de souligner.
« Ils entraînent tous deux leurs plateformes à partir de nos données mais ne laissent pas une autre entreprise utiliser leurs outils alors qu'ils se servent tous deux (OpenAI et Microsoft) des outils Open Source mis sur pied gratuitement par d’autres développeurs », souligne un internaute.
Le New York Times envisage de même de lancer une action en justice contre OpenAI pour utilisation de son contenu aux fins d’entrainement de ses modèles d’intelligence artificielle
Le New York Times envisage de lancer une action en justice contre OpenAI afin de l’obliger à effacer les données d’entraînement de ChatGPT. Le département juridique du média étudie la possibilité de poursuivre OpenAI pour protéger les droits de propriété intellectuelle associés à ses reportages. En effet, le journal américain est contre l’utilisation de son contenu comme données d’entraînement pour une intelligence artificielle.
L'une des principales préoccupations du Times est que ChatGPT devienne, d'une certaine manière, un concurrent direct du journal en créant des textes qui répondent à des questions basées sur les reportages et les écrits originaux de l'équipe du journal.
Cette crainte est d'autant plus forte que les entreprises technologiques utilisent des outils d'IA générative dans les moteurs de recherche. Microsoft par exemple a investi des milliards dans OpenAI et anime désormais son moteur de recherche Bing avec ChatGPT.
Le problème de fond est que lorsqu'une personne effectue une recherche en ligne, elle reçoit une réponse d'un paragraphe d'un outil d'IA qui remanie les articles du Times. La nécessité de visiter le site web de l'éditeur s’en trouve grandement diminuée.
C’est pour toutes ces raisons que le NYT a procédé à la modification de ses conditions d’utilisation pour interdire l’usage de son contenu qui comprend les articles, les vidéos, les images, le design, les métadonnées ou les compilations, pour le développement de tout logiciel, notamment pour l’entraînement d’un système d’apprentissage automatique ou d’IA. Il interdit également l’utilisation d’outils automatisés, comme les robots d’indexation, qui visent à utiliser, accéder ou collecter ce contenu sans son consentement écrit. Le NYT précise que le non-respect de ces restrictions peut entraîner des amendes ou des sanctions civiles, pénales ou administratives.
Une action en justice du Times contre OpenAI mettrait en place ce qui pourrait être la bataille juridique la plus médiatisée à ce jour sur la protection des droits d'auteur à l'ère de l'IA générative. La manœuvre est susceptible d’être dévastatrice pour OpenAI, avec notamment la destruction de l'ensemble des données d’entraînement de ChatGPT et des amendes pouvant aller jusqu'à 150 000 dollars par contenu objet du litige.

Peut-on réellement faire confiance au code généré par l'IA sans relecture humaine ?