Pour un "écosystème de contenu dynamique", la vice-présidente de Google chargée de la confiance estime que les éditeurs de sites web ont besoin "d'un choix et d'un contrôle sur leur contenu, ainsi que de possibilités de tirer profit de leur participation à l'écosystème web". Voici ce qu'elle a publié dans un post.
"Lors de la conférence Google I/O, nous avons annoncé de nouveaux produits et expériences basés sur l'IA, qui s'appuient sur nos années de recherche dans ce domaine. Nous avons également évoqué l'engagement de Google à développer l'IA de manière responsable, afin de maximiser les avantages pour la société tout en relevant les défis, conformément à nos principes en matière d'IA et à notre engagement en faveur de la protection de la vie privée de nos clients.
Nous pensons que tout le monde bénéficie d'un écosystème de contenu dynamique. Pour cela, il est essentiel que les éditeurs de sites web aient le choix et le contrôle de leur contenu, et qu'ils aient la possibilité de tirer profit de leur participation à l'écosystème du web. Cependant, nous reconnaissons que les contrôles existants des éditeurs de sites web ont été développés avant les nouveaux cas d'utilisation de l'IA et de la recherche.
L'émergence de nouvelles technologies offre à la communauté du web l'occasion de faire évoluer les normes et les protocoles qui soutiennent le développement futur du web. L'une de ces normes, robots.txt, a été créée il y a près de 30 ans et s'est avérée être un moyen simple et transparent pour les éditeurs de sites web de contrôler la manière dont les moteurs de recherche explorent leur contenu. Nous pensons qu'il est temps pour les communautés du web et de l'IA d'explorer d'autres moyens lisibles par machine permettant aux éditeurs de sites web de choisir et de contrôler les cas d'utilisation émergents de l'IA et de la recherche.
Aujourd'hui, nous lançons un débat public, invitant les membres des communautés du web et de l'IA à donner leur avis sur des approches de protocoles complémentaires. Nous aimerions qu'un large éventail de voix provenant des éditeurs de sites web, de la société civile, du monde universitaire et d'autres domaines du monde entier se joignent à la discussion, et nous réunirons les personnes intéressées au cours des prochains mois.
Vous pouvez participer à la discussion des communautés du web et de l'IA en vous inscrivant sur notre site web et nous partagerons bientôt plus d'informations sur ce processus."
Source : Blog Google
Et vous ?
Pensez-vous que cette déclaration est crédible ou pertinente ?
Quel est votre avis sur cette suggestion de Google ?
Voir aussi :
Google dévoile PaLM-E, un modèle d'IA de type ChatGPT, qui prend en compte les besoins de l'utilisateur,
Une similitude est dégagée dans le récent article de Microsoft intitulé "ChatGPT for Robotic"
Google I/O 2023 : l'IA est désormais omniprésente dans les produits phares de Google
L'entreprise présente ses dernières innovations en matière de technologie, d'IA, de cloud computing
La course à l'IA s'intensifie : Google annonce PaLM 2, sa réponse à GPT-4, Selon Google,
Le PaLM 2 pourrait coder, traduire et « raisonner » d'une manière plus performante que le GPT-4
Google suggère de mettre à jour le fichier Robots.txt pour les cas d'utilisation de l'IA émergente
Selon Danielle Romain, vice-présidente de Google chargée de la confiance.
Google suggère de mettre à jour le fichier Robots.txt pour les cas d'utilisation de l'IA émergente
Selon Danielle Romain, vice-présidente de Google chargée de la confiance.
Le , par Jade Emy
Une erreur dans cette actualité ? Signalez-nous-la !