IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Avec des milliards de vidéos YouTube à sa disposition, Google aurait formé les modèles d'IA Veo 3 et Gemini à partir du contenu des utilisateurs sans leur connaissance, leur approbation ou rémunération

Le , par Anthony

5PARTAGES

4  0 
Avec des milliards de vidéos YouTube à sa disposition, Google aurait formé les modèles d'IA Veo 3 et Gemini à partir du contenu des utilisateurs sans leur consentement, leur approbation ou leur rémunération

Google aurait utilisé du contenu YouTube pour entraîner ses modèles d'intelligence artificielle (IA), notamment Gemini et le générateur de vidéo et d'audio Veo 3, selon un rapport de CNBC.

Pour rappel, Google DeepMind a lancé Veo 3, un modèle d'IA générative capable de produire des vidéos avec du son intégré, en mai dernier. Veo 3 se positionne comme un concurrent direct de Sora d'OpenAI, mais sa capacité à intégrer du son dans les vidéos qu'il crée constitue un atout majeur. L'outil fait partie de la suite plus large de technologies d'IA multimédia de Google, aux côtés d'Imagen 4 et Lyria 2, les nouveaux modèles multimédias génératifs de Vertex AI.

Selon le rapport de CNBC, un porte-parole de YouTube a confirmé que Google s'appuyait sur sa banque de vidéos YouTube pour entraîner ses modèles d'IA. Cependant, le porte-parole a ajouté que Google n'utilise pas toutes les vidéos disponibles sur YouTube, mais seulement une partie d'entre elles à des fins d'entraînement.

Le rapport affirme en outre que de nombreux créateurs dont les vidéos auraient pu être utilisées à cette fin ignorent que leur contenu a été utilisé sans leur consentement et sans aucune compensation.


Les créateurs n'ont jamais été informés ?

Selon YouTube, cette information a déjà été communiquée aux créateurs, mais, d'après les experts interrogés par CNBC, les créateurs et les entreprises médiatiques ne comprennent pas bien que le géant américain de la technologie entraîne ses modèles d'IA à l'aide de sa vidéothèque (YouTube).

Au début de l'année dernière, en septembre, YouTube a déclaré dans un blog que le contenu téléchargé sur la plateforme pouvait être utilisé pour « améliorer l'expérience produit... notamment grâce à l'apprentissage automatique et aux applications d'IA ». Un inconvénient majeur réside dans le fait que les créateurs qui ont mis en ligne des vidéos sur YouTube n'ont aucun moyen de refuser que Google les utilise pour entraîner ses modèles d'IA, ce que proposent ses concurrents, comme Meta. Étonnamment, YouTube permet aux créateurs de refuser que leur contenu soit partagé avec des sociétés tierces pour entraîner leurs modèles d'IA.

Selon YouTube, la plateforme compte environ 20 milliards de vidéos, mais on ne sait pas pour l'instant combien d'entre elles sont utilisées pour entraîner les modèles d'IA de Google. CNBC a cité des experts qui affirment que même si Google n'utilisait qu'un pour cent de ces vidéos, cela représenterait environ 2,3 milliards de minutes de contenu, soit 40 fois plus que les données d'entraînement utilisées par les modèles d'IA concurrents.

Le rapport affirme que CNBC s'est entretenu avec un certain nombre de créateurs et de professionnels de la propriété intellectuelle de premier plan, et qu'il a découvert qu'aucun d'entre eux n'était apparemment au courant ou n'avait été informé par YouTube de la possibilité que leur contenu soit utilisé pour entraîner les modèles d'IA de Google.

Pourquoi est-ce important ?

YouTube, qui utilise des vidéos mises en ligne par les utilisateurs pour entraîner l'IA, a suscité des inquiétudes, en particulier après que Google a dévoilé son puissant générateur de vidéos Veo 3. Cet outil permet de créer des scènes cinématographiques entièrement générées par l'IA, y compris les images et le son. Avec environ 20 millions de vidéos mises en ligne quotidiennement sur YouTube par des créateurs et des entreprises médiatiques, certains craignent que leur contenu soit utilisé pour développer une technologie qui pourrait un jour les concurrencer ou les remplacer.

CNBC a cité des experts affirmant que même si les résultats de Veo 3 ne copient pas directement le contenu existant, les résultats générés par l'IA peuvent alimenter des produits commerciaux susceptibles de rivaliser avec les créateurs mêmes dont le travail a contribué à l'entraîner, sans leur permission, sans mentionner leur nom et sans les rémunérer.

Ce piège sans issue commence dès qu'un créateur télécharge une vidéo sur YouTube, car ce faisant, il accepte que YouTube dispose d'une licence étendue sur le contenu.

Que montrent les antécédents ?

Selon le New York Times, Google aurait transcrit des vidéos YouTube afin d'entraîner ses modèles d'IA. Mashable souligne que cette pratique soulève des questions juridiques, car elle pourrait enfreindre les droits d'auteur des créateurs.

L'utilisation de contenus en ligne pour l'entraînement de l'IA a déjà donné lieu à des poursuites judiciaires liées aux licences et à la propriété intellectuelle. D'autres acteurs tels que Meta et OpenAI ont également été critiqués pour avoir utilisé la propriété intellectuelle afin d'entraîner leurs modèles d'IA sans le consentement des créateurs ou des auteurs.

Il est intéressant de noter qu'à la suite de l'annonce de Veo 3 lors de la dernière conférence Google I/O, l'outil de génération de vidéos par IA a rapidement entraîné une explosion de contenus sur des plateformes comme X et YouTube. Capable de créer des scènes réalistes à partir de simples descriptions textuelles, intégrant des dialogues, de la musique et des effets sonores, Veo 3 suscite une inquiétude croissante quant à la prolifération de contenus générés par IA sur des plateformes comme YouTube.

Ces développements rappellent la vidéo virale « Will Smith mangeant des spaghettis », autrefois tournée en dérision, mais qui est désormais considérée comme un critère de performance révélant les capacités de l'IA Veo 3 de Google, mais aussi ses limites. Initialement perçu comme une curiosité grotesque, le mème est devenu un symbole des avancées technologiques et des débats entourant l'IA.

Source : CNBC

Et vous ?

Quel est votre avis sur le sujet ?
Trouvez-vous cette initiative de Google crédible ou pertinente ?

Voir aussi :

Runway aurait formé son outil d'IA de génération de vidéo à partir de milliers de vidéos YouTube sans autorisation, YouTube indique qu'il s'agit d'une "violation claire" des règles de la plateforme

Peak Points : YouTube utilise l'IA Gemini pour insérer des pubs aux moments où l'attention des spectateurs est la plus forte, quand ils sont potentiellement plus réceptifs à un message publicitaire

Les créateurs de vidéos YouTube sont désormais tenus d'indiquer si les vidéos réalistes ont été réalisées à l'aide d'une IA, afin d'éviter tout contenu susceptible d'induire les utilisateurs en erreur

Le New York Times affirme qu'OpenAI a transcrit plus d'un million d'heures de vidéos YouTube pour entraîner son modèle d'IA GPT-4, violant ainsi les droits d'auteur des créateurs de la plateforme
Vous avez lu gratuitement 413 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !