
Google aurait utilisé du contenu YouTube pour entraîner ses modèles d'intelligence artificielle (IA), notamment Gemini et le générateur de vidéo et d'audio Veo 3, selon un rapport de CNBC.
Pour rappel, Google DeepMind a lancé Veo 3, un modèle d'IA générative capable de produire des vidéos avec du son intégré, en mai dernier. Veo 3 se positionne comme un concurrent direct de Sora d'OpenAI, mais sa capacité à intégrer du son dans les vidéos qu'il crée constitue un atout majeur. L'outil fait partie de la suite plus large de technologies d'IA multimédia de Google, aux côtés d'Imagen 4 et Lyria 2, les nouveaux modèles multimédias génératifs de Vertex AI.
Selon le rapport de CNBC, un porte-parole de YouTube a confirmé que Google s'appuyait sur sa banque de vidéos YouTube pour entraîner ses modèles d'IA. Cependant, le porte-parole a ajouté que Google n'utilise pas toutes les vidéos disponibles sur YouTube, mais seulement une partie d'entre elles à des fins d'entraînement.
Le rapport affirme en outre que de nombreux créateurs dont les vidéos auraient pu être utilisées à cette fin ignorent que leur contenu a été utilisé sans leur consentement et sans aucune compensation.
Les créateurs n'ont jamais été informés ?
Selon YouTube, cette information a déjà été communiquée aux créateurs, mais, d'après les experts interrogés par CNBC, les créateurs et les entreprises médiatiques ne comprennent pas bien que le géant américain de la technologie entraîne ses modèles d'IA à l'aide de sa vidéothèque (YouTube).
Au début de l'année dernière, en septembre, YouTube a déclaré dans un blog que le contenu téléchargé sur la plateforme pouvait être utilisé pour « améliorer l'expérience produit... notamment grâce à l'apprentissage automatique et aux applications d'IA ». Un inconvénient majeur réside dans le fait que les créateurs qui ont mis en ligne des vidéos sur YouTube n'ont aucun moyen de refuser que Google les utilise pour entraîner ses modèles d'IA, ce que proposent ses concurrents, comme Meta. Étonnamment, YouTube permet aux créateurs de refuser que leur contenu soit partagé avec des sociétés tierces pour entraîner leurs modèles d'IA.
Selon YouTube, la plateforme compte environ 20 milliards de vidéos, mais on ne sait pas pour l'instant combien d'entre elles sont utilisées pour entraîner les modèles d'IA de Google. CNBC a cité des experts qui affirment que même si Google n'utilisait qu'un pour cent de ces vidéos, cela représenterait environ 2,3 milliards de minutes de contenu, soit 40 fois plus que les données d'entraînement utilisées par les modèles d'IA concurrents.
Le rapport affirme que CNBC s'est entretenu avec un certain nombre de créateurs et de professionnels de la propriété intellectuelle de premier plan, et qu'il a découvert qu'aucun d'entre eux n'était apparemment au courant ou n'avait été informé par YouTube de la possibilité que leur contenu soit utilisé pour entraîner les modèles d'IA de Google.
Pourquoi est-ce important ?
YouTube, qui utilise des vidéos mises en ligne par les utilisateurs pour entraîner l'IA, a suscité des inquiétudes, en particulier après que Google a dévoilé son puissant générateur de vidéos Veo 3. Cet outil permet de créer des scènes cinématographiques entièrement générées par l'IA, y compris les images et le son. Avec environ 20 millions de vidéos mises en ligne quotidiennement sur YouTube par des créateurs et des entreprises médiatiques, certains craignent que leur contenu soit utilisé pour développer une technologie qui pourrait un jour les concurrencer ou les remplacer.
CNBC a cité des experts affirmant que même si les résultats de Veo 3 ne copient pas directement le contenu existant, les résultats générés par l'IA peuvent alimenter des produits commerciaux susceptibles de rivaliser avec les créateurs mêmes dont le travail a contribué à l'entraîner, sans leur permission, sans mentionner leur nom et sans les rémunérer.
Ce piège sans issue commence dès qu'un créateur télécharge une vidéo sur YouTube, car ce faisant, il accepte que YouTube dispose d'une licence étendue sur le contenu.
Que montrent les antécédents ?
Selon le New York Times, Google aurait transcrit des vidéos YouTube afin d'entraîner ses modèles d'IA. Mashable souligne que cette pratique soulève des questions juridiques, car elle pourrait enfreindre les droits d'auteur des créateurs.
L'utilisation de contenus en ligne pour l'entraînement de l'IA a déjà donné lieu à des poursuites judiciaires liées aux licences et à la propriété intellectuelle. D'autres acteurs tels que Meta et OpenAI ont également été critiqués pour avoir utilisé la propriété intellectuelle afin d'entraîner leurs modèles d'IA sans le consentement des créateurs ou des auteurs.
Il est intéressant de noter qu'à la suite de l'annonce de Veo 3 lors de la dernière conférence Google I/O, l'outil de génération de vidéos par IA a rapidement entraîné une explosion de contenus sur des plateformes comme X et YouTube. Capable de créer des scènes réalistes à partir de simples descriptions textuelles, intégrant des dialogues, de la musique et des effets sonores, Veo 3 suscite une inquiétude croissante quant à la prolifération de contenus générés par IA sur des plateformes comme YouTube.
Ces développements rappellent la vidéo virale « Will Smith mangeant des spaghettis », autrefois tournée en dérision, mais qui est désormais considérée comme un critère de performance révélant les capacités de l'IA Veo 3 de Google, mais aussi ses limites. Initialement perçu comme une curiosité grotesque, le mème est devenu un symbole des avancées technologiques et des débats entourant l'IA.
Source : CNBC
Et vous ?


Voir aussi :




Vous avez lu gratuitement 413 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.