IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Google a confirmé qu'il signerait le code de conduite général de l'UE en matière d'IA, après que Meta ait déclaré qu'il ne signerait pas ce code, qualifiant la mise en œuvre par l'UE d'excessive

Le , par Jade Emy

0PARTAGES

8  0 
Google a confirmé qu'il signerait le code de conduite général de l'UE en matière d'IA, après que Meta ait déclaré qu'il ne signerait pas ce code, qualifiant la mise en œuvre par l'UE d' "excessive".

Google a confirmé qu'il signerait le code de conduite général de l'Union européenne en matière d'IA, un cadre volontaire qui vise à aider les développeurs d'IA à mettre en œuvre des processus et des systèmes conformes à la loi sur l'IA de l'Union européenne. L'engagement de Google intervient quelques jours avant l'entrée en vigueur, le 2 août, des règles applicables aux fournisseurs de "modèles d'IA à usage général présentant un risque systémique". Il convient de noter que Meta a déclaré au début du mois qu'il ne signerait pas le code, qualifiant la mise en œuvre par l'UE de sa législation sur l'IA d' "excessive" et affirmant que l'Europe "s'engageait sur la mauvaise voie en matière d'IA".

Début juillet 2025, la Commission européenne a reçu la version finale du code de bonnes pratiques pour l'IA à usage général. Le code est conçu pour aider l'industrie à se conformer aux règles de la loi sur l'IA relatives à l'IA à usage général, qui entreront en vigueur le 2 août 2025. L'objectif est de garantir que les modèles d'IA à usage général mis sur le marché européen - y compris les plus puissants - sont sûrs et transparents.

Récemment, Google a confirmé qu'il signerait le code de conduite général de l'Union européenne en matière d'IA, un cadre volontaire qui vise à aider les développeurs d'IA à mettre en œuvre des processus et des systèmes conformes à la loi sur l'IA de l'Union européenne. En signant le code de bonnes pratiques de l'UE, les entreprises d'IA s'engageraient à respecter une série de lignes directrices, notamment fournir une documentation mise à jour sur leurs outils et services d'IA, ne pas former l'IA sur des contenus piratés et se conformer aux demandes des propriétaires de contenus de ne pas utiliser leurs œuvres dans leurs ensembles de données.

L'engagement de Google intervient quelques jours avant l'entrée en vigueur, le 2 août, des règles applicables aux fournisseurs de "modèles d'IA à usage général présentant un risque systémique". Les entreprises susceptibles d'être concernées par ces règles comprennent des grands noms tels qu'Anthropic, Google, Meta et OpenAI, ainsi que plusieurs autres grands modèles génératifs, qui disposeront de deux ans pour se conformer pleinement à la loi sur l'IA.

Kent Walker, président des affaires internationales chez Google, a reconnu que la version finale du code de bonnes pratiques était meilleure que celle initialement proposée par l'UE, mais il a tout de même émis des réserves concernant la loi sur l'IA et le code. "Nous restons préoccupés par le fait que la loi sur l'IA et le code risquent de ralentir le développement et le déploiement de l'IA en Europe. En particulier, les dérogations à la législation européenne sur le droit d'auteur, les mesures qui ralentissent les autorisations ou les exigences qui exposent les secrets commerciaux pourraient freiner le développement et le déploiement de modèles européens, nuisant ainsi à la compétitivité de l'Europe", a déclaré Walker.


Réglementation fondée sur les risques pour les applications d'IA, la loi historique de l'UE sur l'IA interdit certains cas d'utilisation présentant un "risque inacceptable", tels que la manipulation cognitive comportementale ou la notation sociale. Les règles définissent également un ensemble d'utilisations "à haut risque", notamment la biométrie et la reconnaissance faciale, ainsi que l'utilisation de l'IA dans des domaines tels que l'éducation et l'emploi. La loi exige également des développeurs qu'ils enregistrent les systèmes d'IA et respectent leurs obligations en matière de gestion des risques et de la qualité.

Voici notamment l'annonce de Google :

Nous signerons le Code de bonnes pratiques de l'UE en matière d'IA

Nous nous joindrons à plusieurs autres entreprises, notamment des fournisseurs de modèles américains, pour signer le Code de bonnes pratiques de l'Union européenne en matière d'IA à usage général. Nous le faisons dans l'espoir que ce code, tel qu'il sera appliqué, favorisera l'accès des citoyens et des entreprises européens à des outils d'IA sécurisés et de premier ordre dès qu'ils seront disponibles. Il est important que leur déploiement soit rapide et généralisé. L'Europe a beaucoup à y gagner, avec un potentiel de croissance économique de 8 % (1 400 milliards d'euros) par an d'ici 2034.

Bien que la version finale du code soit plus proche de soutenir les objectifs économiques et d'innovation de l'Europe que sa version initiale, et que nous apprécions l'opportunité qui nous a été donnée de soumettre nos commentaires, nous restons préoccupés par le fait que la loi et le code sur l'IA risquent de ralentir le développement et le déploiement de l'IA en Europe. En particulier, les dérogations à la législation européenne sur le droit d'auteur, les mesures qui ralentissent les autorisations ou les exigences qui exposent les secrets commerciaux pourraient freiner le développement et le déploiement de modèles européens, nuisant ainsi à la compétitivité de l'Europe.

Nous nous engageons à travailler avec le Bureau de l'IA pour garantir que le code soit proportionné et adapté à l'évolution rapide et dynamique de l'IA. Et nous nous exprimerons activement en faveur d'une approche pro-innovation qui conduise à des investissements et à des innovations futurs en Europe, bénéfiques pour tous.
Il convient de noter que Meta a déclaré au début du mois qu'il ne signerait pas le code, qualifiant la mise en œuvre par l'UE de sa législation sur l'IA d' "excessive" et affirmant que l'Europe "s'engageait sur la mauvaise voie en matière d'IA". Pourtant, en aril, Meta a fait un nouveau pas en avant avec ses outils d'intelligence artificielle (IA) en Europe, en étendant la formation de l'IA aux publications partagées par les utilisateurs de l'Union européenne (UE).

L'initiative de Meta est d'autant plus importante que Meta a dû faire face à de nombreux retards et difficultés pour obtenir l'autorisation d'utiliser les données de l'UE, en vertu des règles plus strictes de la région en matière de protection de la vie privée. Mais il semble maintenant que Meta pourra aller de l'avant, bien qu'avec une certaine prudence, dans la perspective d'un déploiement plus large de l'IA en Europe.

Ce code européen ne fait pas l'unanimité, loin de là. Par exemple, en avril, le président américain Donald Trump a fait monter la pression sur l'Union européenne (UE) pour qu'elle revienne sur son futur code de pratique de l'intelligence artificielle (IA), qui vise à renforcer les règles relatives à la transparence, à la gestion des risques et au respect des droits d'auteur pour les systèmes d'IA avancés. La mission américaine auprès de l'UE a notamment envoyé une lettre à la Commission européenne et à plusieurs gouvernements européens, s'opposant à la version actuelle du code de pratique volontaire.

Source : Annonce de Google

Et vous ?

Pensez-vous que cette annonce est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

L'AI Act est en place : les systèmes d'IA présentant un « risque inacceptable » sont désormais interdits dans l'UE, mais la Commission accuse des retards dans la définition des règles qui l'encadre

Des scientifiques d'OpenAI, de Google DeepMind, d'Anthropic et de Meta ont abandonné leur rivalité pour lancer un avertissement commun sur la sécurité de l'IA : notre capacité de contrôle pourrait disparaître

Les progrès de l'Europe en matière d'IA sont "insuffisants" pour concurrencer les États-Unis et la Chine. Un rapport souligne le "pouvoir hégémonique" des États-Unis en matière d'IA et les risques pour l'Europe
Vous avez lu gratuitement 922 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Artaeus
Nouveau Candidat au Club https://www.developpez.com
Le 31/07/2025 à 19:35
Censuré donc ?
0  0