IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'ancien PDG de Google estime qu'il n'y a pas de mal à ce que les entreprises spécialisées dans l'IA volent des contenus :
« vous pourrez nettoyer le gâchis plus tard avec de l'argent et une armée d'avocats »

Le , par Mathis Lucas

11PARTAGES

6  0 
Eric Schmidt, ancien PDG de Google, encourage sans scrupule les startups spécialisées dans l'IA à voler tous les contenus dont elles ont besoin pour atteindre leurs objectifs. L'homme d'affaires conseille aux startups d'IA de ne pas se soucier des retombées et dit qu'il y a deux issues possibles. Si vous réussissez, vous gagnerez beaucoup d'argent afin d'embaucher un peloton d'avocats pour nettoyer le gâchis. En revanche, il pense que le fait que vous ayez volé du contenu n'aura pas d'importance si vous échouez. Ses propos ont suscité des préoccupations majeures l'éthique des données dans les entreprises tels que Google et OpenAI.

Eric Schmidt : volez ce dont vous avez besoin et laissez vos avocats réparer les dégâts

Eric Schmidt a récemment participé à une conférence à l'université de Stanford, où il a parlé de l'avenir de l'IA et s'est lancé dans une diatribe contre le télétravail, sur laquelle il est revenu par la suite. Lors de la conférence, l'ancien PDG de Google a pris ses aises et a fait de nombreuses déclarations préoccupantes, tout en donnant des conseils douteux aux étudiants et aux startups spécialisées dans l'IA. La chose la plus surprenante que Schmidt ait dite lors de son intervention est que "les startups d'IA peuvent voler les données dont elles ont besoin pour entraîner leurs modèles d'IA", sans avoir peur des retombées.


Schmidt a déclaré à l'assemblée : « il n'y a pas de mal à voler du contenu si l'on réussit, car il suffit d'engager des avocats pour réparer les dégâts. Si personne n'utilise votre produit, le fait que vous ayez volé tout le contenu n'a pas d'importance ». Ayant dirigé Google de 2001 à 2011, Schmidt sait très bien ce que c'est que de devoir faire appel à une armée d'avocats pour réparer les dégâts. YouTube s'est développé à ses débuts grâce à des vidéos dont il n'avait pas les droits.

On pourrait dire que l'activité de Google Search elle-même s'est d'abord construite en accélérant le système juridique. Schmidt a tenu ces propos pendant qu'il exposait "un scénario théorique" dans lequel les étudiants présents dans la salle pourraient utiliser un grand modèle de langage (LLM) pour créer un concurrent de TikTok, dans le cas où la plateforme serait interdite aux États-Unis. Il a reconnu que le scénario pouvait être criblé de questions juridiques et éthiques.

Citation Envoyé par Eric Schmidt

Voici ce que je propose à chacun d'entre vous. Dites à votre LLM ce qui suit : « faites-moi une copie de TikTok, volez tous les utilisateurs, volez toute la musique, mettez-y mes préférences, produisez ce programme dans les 30 prochaines secondes, publiez-le et dans une heure, s'il n'est pas viral, faites quelque chose d'autre dans la même veine ». C'est la commande.

Et ce que vous feriez si vous étiez un entrepreneur de la Silicon Valley, c'est que si cela décollait, vous embaucheriez tout un tas d'avocats pour réparer les dégâts, n'est-ce pas ? Si personne n'utilise votre produit, le fait que vous ayez volé tout le contenu n'a pas d'importance. Ne me citez pas. Oups !
À un moment donné, il a tenté de se rattraper en déclarant qu'il n'affirmait pas qu'il fallait voler illégalement la musique de tout le monde, bien qu'il ait conseillé aux étudiants, quelques instants plus tôt, de faire exactement la même chose. À bien des égards, les propos de l'ancien PDG de Google résument parfaitement l'attitude générale de l'industrie de l'IA à l'égard des contenus publiés en ligne et des produits d'autrui. OpenAI, Anthropic et bien d'autres sont tous concernés.

Cela fait des années que les entreprises récupèrent des contenus produits par des humains pour entraîner leurs modèles d'IA toujours plus gourmands. Et tandis que certaines entités, comme le New York Times, dénoncent les atteintes au droit d'auteur, Schmidt considère apparemment le vol présumé de propriété intellectuelle comme un « gâchis » que les avocats devront nettoyer plus tard. « La Silicon Valley effectuera ces tests et nettoiera le désordre », a déclaré Schmidt.

« Et c'est typiquement comme cela que ces choses sont faites », a-t-il ajouté, selon une transcription de l'événement. Il est revenu sur nombre de ses déclarations lors de l'événement et la vidéo a depuis été retirée du site après avoir fait l'objet de nombreuses critiques et d'une couverture médiatique très négative.

La capacité de la technologie à devenir rapidement et extrêmement rentable semble avoir dépassé de loin le système judiciaire et ce que n'importe quel procès peut être utilisé contre eux. Il en va de même pour tous les mastodontes de l'industrie pour lesquels les amendes sont comparables une petite tape sur les doigts.

L'IA déclenche une avalanche de poursuites pour violation de la propriété intellectuelle

Google n'est pas le seul dans ce cas. Les entreprises les plus influentes de la Silicon Valley ont adopté la même stratégie. À quelques exceptions près, elles ont décidé très tôt qu'il valait mieux demander le pardon que la permission. Lorsque les amendes devaient être payées, l'argent avait déjà été gagné. L'histoire se répète, et les entreprises d'IA les plus en vue, telles qu'OpenAI et Anthropic, suivent le même schéma, avec le soutien de dirigeants de la vieille garde comme Schmidt. Lors de la conférence à l'université de Stanford, Schmidt a déclaré que Sam Altman, PDG d'OpenAI, figure parmi ses amis très proches.

Selon les analystes, de nombreux dirigeants partagent le point de vue de Schmidt. Ils considèrent que l'argent et le pouvoir qui se profilent à l'horizon suffisent amplement à faire face aux dégâts causés en chemin. Ainsi, le développement de l'IA repose actuellement sur des données collectées à partir du travail des créateurs de contenu sans leur consentement ni un paiement. Cela a fonctionné pour Google, alors pourquoi cela ne fonctionnerait-il pas pour eux ?

Pourtant, une stratégie similaire a également mis certaines entreprises d'IA dans l'eau chaude. En décembre, le New York Times a intenté un procès à OpenAI et à Microsoft pour violation des droits d'auteur, alléguant que les deux entreprises ont formé leur IA sur des millions de ses articles. En avril, huit autres éditeurs de presse ont poursuivi OpenAI pour avoir prétendument utilisé leurs articles de presse protégés par des droits d'auteur sans autorisation ni paiement.

Schmidt a occupé plusieurs postes au sein de Google, dont celui de PDG pendant dix ans, au cours desquels il a dirigé l'entreprise lors du lancement de Chrome et de Gmail, de l'acquisition de YouTube et de son introduction en bourse en 2004. Schmidt, dont la valeur nette est estimée aujourd'hui à environ 31 milliards de dollars selon l'indice Bloomberg Billionaires, est un investisseur important, notamment dans des entreprises d'IA telles que Mistral AI, basée en France.

OpenAI a reconnu qu'il est impossible de créer des outils comme ChatGPT sans s’appuyer sur des contenus protégés par le droit d'auteur. Et alors que la course à l'IA s'intensifie, les éditeurs de journaux et autres propriétaires de données exigent une part du marché potentiellement gigantesque de l'IA générative, qui devrait atteindre 1300 millions de dollars d'ici à 2032. De nombreux rapports suggèrent que l'IA pourrait changer à jamais l'édition et le journalisme.

C'est la raison pour laquelle les éditeurs exigent une protection contre l'IA et une partie du butin que l'IA va générer, mais les contrats proposés aux éditeurs sont critiqués. OpenAI a signé des accords avec The Atlantic et Vox Media pour utiliser leur contenu afin de perfectionner ses modèles de langage, ce qui a surpris et inquiété les journalistes et leurs syndicats. Ils déplorent le manque de transparence de ces accords et craignent des impacts négatifs sur leur travail.

Perplexity AI, qui propose un moteur de recherche basé sur l'IA, est également au beau milieu d'un scandale de vol de données. Le moteur de recherche ignore le standard largement utilisé sur le Web depuis des décennies, appelé "Robots Exclusion Protocol" (protocole d'exclusion des robots - robots.txt), pour explorer subrepticement des zones de sites Web auxquels les opérateurs ne veulent pas que les robots d'indexation accèdent. Ce qui suscite des préoccupations majeures.

Une étude a révélé le mois dernier que Salesforce, Apple, Anthropic et d'autres ont formé leurs modèles d'IA sur des vidéos YouTube sans le consentement des créateurs. Ils se sont appuyés sur l'ensemble de données The Pile, compilé à partir de plus de 170 000 vidéos, dont des vidéos de vidéastes populaires tels que MKBHD, MrBeast et Jimmy Kimmel. Les experts affirment que ce comportement viole les droits des créateurs et les conditions d'utilisation de YouTube.

Mais les entreprises semblent prêtes à tout pour glaner des données indispensables à la formation de leurs modèles d'IA, à un moment où les sources de données se tarissent. L'IA bouleverse la propriétaire intellectuelle et pose d'autres défis. Il sera intéressant de voir comment ces questions seront traitées à l'avenir.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des propos de l'ancien PDG de Google sur le vol des données pour former l'IA ?
Que pensez-vous de la philosophie « aller vite et casser les choses » des entreprises de la Silicon Valley ?
Pensez-vous que l'éthique des données sur laquelle se base l'industrie devrait s'appliquer aux IA ?
Quels impacts l'IA pourrait-elle avoir sur l'éthique des données et la propriétaire intellectuelle à l'avenir ?

Voir aussi

« Il est impossible de créer des outils comme ChatGPT sans contenus sous copyright », selon OpenAI qui suscite des réactions dont celles de fermer le service ou de l'amener à rémunérer les auteurs

OpenAI conteste les affirmations des auteurs selon lesquelles chaque réponse de ChatGPT est une œuvre dérivée, l'entreprise affirme que ces plaintes sont irrecevables et demande leur rejet

OpenAI et les médias : des accords de contenu dans l'ombre inquiètent les journalistes qui déplorent le manque de transparence et craignent des impacts négatifs sur leur travail

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de _toma_
Membre confirmé https://www.developpez.com
Le 24/10/2024 à 1:40
Youpi
0  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 24/10/2024 à 11:18
Vu le niveau du journalisme actuel autant abdiquer et refiler la rédaction des infomercial à l'IA. On verra alors le retour du journalisme artisanal qui cherche juste la vérité plutôt que la complaisance avec les pouvoirs en place...
0  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 14/11/2024 à 8:51
Inquiétant si un juge n'est pas capable de comprendre les notions de valeur et de droit.
C'est bien comme ça on aura plus d’éditeurs de contenus (s'ils ne peuvent plus en vivre pourquoi continueraient ils ?), à part des amateurs et autres bavards du clavier ou encore les réseaux sociaux pleins d'experts avertis . Les IA continueront à apprendre sur ces contenus sans valeur pour pouvoir dire encore plus d'âneries au milieu de leurs propres hallucinations.

Vivement le jour où on en aura tous raz le bol de lisser et tirer vers le bas la créativité et la création de valeur pour le simple profit de quelques entreprises. Ce jour là l'Homme pourra redonner du sens à sa propre existence.
0  0