IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les grandes enseignes Tech cherchent à affaiblir la loi européenne sur l'IA, arguant que des exigences trop lourdes en matière de transparence
Pourraient ralentir le développement de nouvelles technologies

Le , par Stéphane le calme

15PARTAGES

6  0 
Depuis l’adoption de la loi sur l’intelligence artificielle (IA) par l’Union européenne, les plus grandes entreprises technologiques du monde ont intensifié leurs efforts pour influencer et atténuer les réglementations strictes prévues par cette législation historique : Amazon, Google, Meta et d'autres craignent que des réglementations trop strictes n’entravent l’innovation et n’entraînent des amendes de plusieurs milliards de dollars. Les entreprises estiment que des exigences trop lourdes en matière de transparence et de documentation pourraient ralentir le développement de nouvelles technologies et augmenter les coûts de conformité.

Des entreprises telles que Stability AI et OpenAI ont été confrontées à la question de savoir si l'utilisation de livres à succès ou d'archives photographiques pour entraîner leurs modèles sans l'autorisation de leurs créateurs constituait une violation du droit d'auteur.


La rapidité spectaculaire du développement de l'intelligence artificielle au cours des deux dernières années a attiré l'attention du public et suscité des débats autour d'une nouvelle révolution technologique. La promesse de l'intelligence artificielle à l'humanité est qu'elle peut nous rendre plus efficaces - et donc nous permettre de consacrer nos esprits avancés à des activités plus importantes.

Pourtant, il y a de nombreuses raisons de ne pas laisser cette version idéalisée du développement de l'IA s'installer trop longtemps dans notre esprit. Des universitaires, des scientifiques et même les concepteurs de l'IA eux-mêmes ont mis en garde contre les risques considérables que son développement rapide fait courir à l'humanité. À mesure que nous créons de nouvelles formes d'IA et que nous les alimentons avec des quantités de données de plus en plus importantes, leurs capacités sont susceptibles de s'affiner, et elles pourraient acquérir la capacité « d'apprendre », en ingérant des données pour se former elles-mêmes, ainsi qu'en créant potentiellement leurs propres techniques de manipulation à utiliser contre les humains.

L'intelligence artificielle n'a pas besoin d'être sensible pour représenter un risque pour l'humanité. Sa maîtrise du langage, qui s'est produite bien plus rapidement que prévu, suffit à polariser nos sociétés grâce à sa capacité à manipuler les informations que nous absorbons en ligne. Ne pas savoir si une image est réelle ou générée par l'IA, ou si le discours d'un homme politique est un deepfake plutôt qu'une vidéo authentique, pourrait avoir d'immenses conséquences sur ce que les gens croient, sur les relations que nous construisons les uns avec les autres et créer des compréhensions radicalement différentes du monde qui nous entoure.

Face à ces perspectives effrayantes, l'une des réponses actuellement sur la table est l'Artificial Intelligence Act de l'UE. La Commission européenne a initialement publié la proposition de loi sur l'intelligence artificielle (loi sur l'IA) en 2021, mais l'introduction du ChatGPT a semblé renforcer l'attention et l'urgence de sa mise en place. Ainsi, aux premières heures du samedi 9 décembre 2023, les institutions de l'UE ont trouvé un accord, finalisant ainsi la loi sur l'IA après trente-six longues heures de négociations.

La loi sur l'IA est un texte législatif historique qui devrait servir de référence mondiale pendant des années, principalement grâce à un cadre réglementaire adaptable conçu pour être modifié au fur et à mesure que la technologie progresse. Sa flexibilité n'est pas le seul aspect qui fait de la loi sur l'IA un framework intéressant (dont s'inspire déjà d'ailleurs la Californie) : la législation est conçue autour de l'utilisation de la technologie plutôt que de réglementer la technologie elle-même.

Cela signifie que des applications spécifiques, telles que l'utilisation de l'identification biométrique à distance par les forces de l'ordre, seront fortement restreintes, tout en permettant la poursuite de la recherche et du développement dans le domaine de l'IA. Pour ce faire, elle doit toutefois être en mesure d'équilibrer la réglementation et l'innovation, tout en laissant l'UE ouverte à la coopération avec les pays tiers.

La loi européenne sur l'intelligence artificielle est entrée en vigueur ce jeudi 1er août et s'appliquera à tous les systèmes d'intelligence artificielle (IA) déjà en place ou en cours de développement. Cette loi est largement considérée comme la première législation au monde qui tente de réglementer l'intelligence artificielle en fonction des risques qu'elle présente.


Pourquoi cette loi est-elle cruciale ?

La loi sur l’IA vise à encadrer l’utilisation des systèmes d’IA, en particulier ceux à usage général comme ChatGPT d’OpenAI, afin de prévenir les abus et de protéger les droits des citoyens européens. Elle impose aux entreprises de fournir des résumés détaillés des données utilisées pour entraîner leurs modèles, ce qui pourrait permettre aux créateurs de contenu de demander des compensations si leurs œuvres sont utilisées sans autorisation. De plus, la loi exige que les systèmes d’IA à haut risque soient soumis à des évaluations rigoureuses avant leur mise sur le marché, garantissant ainsi leur sécurité et leur fiabilité.

Les préoccupations des géants de la technologie

Après des mois d'intenses négociations entre différents groupes politiques, les législateurs de l'UE ont adopté la loi sur l'IA, premier ensemble complet de règles régissant cette technologie.

Toutefois, tant que les codes de pratique qui accompagnent la loi n'auront pas été finalisés, on ne sait pas avec quelle rigueur les règles relatives aux systèmes d'IA « à usage général », tels que le ChatGPT d'OpenAI, seront appliquées, ni combien de poursuites en matière de droits d'auteur et d'amendes de plusieurs milliards de dollars les entreprises risquent d'encourir.

« Le code de bonnes pratiques est crucial. Si nous y parvenons, nous pourrons continuer à innover », a déclaré Boniface de Champris, responsable politique de l'organisation commerciale CCIA Europe, qui compte parmi ses membres Amazon, Google et Meta. « S'il est trop étroit ou trop spécifique, cela deviendra très difficile », a-t-il ajouté.

L'UE a invité des entreprises, des universitaires et d'autres personnes à participer à la rédaction du code de bonnes pratiques, et a reçu près de 1 000 candidatures, un nombre inhabituellement élevé, selon certaines sources.

Le code de bonnes pratiques en matière d'IA ne sera pas juridiquement contraignant lorsqu'il entrera en vigueur à la fin de l'année prochaine, mais il fournira aux entreprises une liste de contrôle qu'elles pourront utiliser pour prouver qu'elles respectent la loi.

Une entreprise qui prétendrait respecter la loi tout en ignorant le code pourrait faire l'objet d'une action en justice.


Les enjeux de la transparence et de la protection des données

Un des points de friction majeurs concerne la transparence des données. Des entreprises telles que Stability AI et OpenAI ont été critiquées pour leur manque de clarté sur les données utilisées pour entraîner leurs modèles ; il a été plusieurs fois question de savoir si l'utilisation de livres à succès ou d'archives photographiques pour entraîner leurs modèles sans l'autorisation de leurs créateurs constituait une violation du droit d'auteur.

En vertu de la loi sur l'IA, les entreprises seront tenues de fournir des « résumés détaillés » des données utilisées pour entraîner leurs modèles. En théorie, un créateur de contenu qui découvre que son travail a été utilisé pour entraîner un modèle d'IA peut être en mesure de demander une indemnisation, bien que cette possibilité soit en cours d'examen par les tribunaux.

Certains chefs d'entreprise ont déclaré que les résumés requis devaient contenir peu de détails afin de protéger les secrets commerciaux, tandis que d'autres affirment que les détenteurs de droits d'auteur ont le droit de savoir si leur contenu a été utilisé sans autorisation.

OpenAI, qui a été critiquée pour son refus de répondre aux questions concernant les données utilisées pour former ses modèles, a également demandé à faire partie des groupes de travail, selon une personne familière avec le sujet, qui a refusé d'être nommée. Google a également soumis une candidature. De son côté, Amazon a déclaré qu'elle espérait « apporter son expertise et veiller à ce que le code de bonnes pratiques soit couronné de succès ».

Maximilian Gahntz, responsable de la politique en matière d'IA à la Fondation Mozilla, l'organisation à but non lucratif à l'origine du navigateur web Firefox, s'est dit préoccupé par le fait que les entreprises « font tout pour éviter la transparence ».

« La loi sur l'IA représente la meilleure occasion de mettre en lumière cet aspect crucial et d'éclairer au moins une partie de la boîte noire », a-t-il déclaré.


Les implications pour l’innovation et la compétitivité

Les critiques de la loi soutiennent que des réglementations trop strictes pourraient freiner l’innovation en Europe et rendre le continent moins compétitif par rapport à d’autres régions du monde. Ils craignent que les startups et les petites entreprises, qui n’ont pas les mêmes ressources que les géants de la technologie, soient particulièrement affectées par les coûts de conformité. Cependant, les partisans de la loi estiment que des règles claires et strictes sont nécessaires pour garantir que l’IA soit développée de manière éthique et responsable.

Certains acteurs du monde des affaires ont reproché à l'UE de donner la priorité à la réglementation des technologies plutôt qu'à l'innovation, et les personnes chargées de rédiger le texte du code de bonnes pratiques s'efforceront de parvenir à un compromis. Il y a quelques jours, l'ancien directeur de la Banque centrale européenne, Mario Draghi, a déclaré que l'Union européenne avait besoin d'une politique industrielle mieux coordonnée, d'un processus décisionnel plus rapide et d'investissements massifs pour ne pas se laisser distancer par la Chine et les États-Unis.

Dans un contexte de protectionnisme croissant au sein de l'UE, les entreprises technologiques locales espèrent que des exceptions seront introduites dans la loi sur l'IA au profit des jeunes entreprises européennes. « Nous avons insisté sur le fait que ces obligations devaient être gérables et, si possible, adaptées aux startups », a déclaré Maxime Ricard, responsable politique chez Allied for Startups, un réseau d'organisations commerciales représentant les petites entreprises technologiques.

Une fois le code publié au début de l'année prochaine, les entreprises technologiques auront jusqu'au mois d'août 2025 pour que leurs efforts de mise en conformité soient évalués en fonction de ce code.

Des organisations à but non lucratif, dont Access Now, le Future of Life Institute et Mozilla, ont également demandé à participer à la rédaction du code. Gahntz a déclaré : « Alors que nous entrons dans la phase où de nombreuses obligations de la loi sur l'IA sont énoncées plus en détail, nous devons veiller à ne pas permettre aux grands acteurs de l'IA d'édulcorer d'importants mandats de transparence. »

Conclusion

La bataille pour influencer la loi européenne sur l’IA est loin d’être terminée. Les géants de la technologie continuent de faire pression pour des réglementations plus souples, tandis que les législateurs européens cherchent à trouver un équilibre entre innovation et protection des droits des citoyens. La manière dont cette loi sera finalement mise en œuvre pourrait avoir des répercussions significatives sur l’avenir de l’IA en Europe et dans le monde entier.

Source : Reuters

Et vous ?

Pensez-vous que les réglementations actuelles sur l’IA sont suffisantes pour protéger les droits des citoyens ? Pourquoi ou pourquoi pas ?
Comment les entreprises technologiques peuvent-elles équilibrer innovation et respect des réglementations ?
Quels sont, selon vous, les risques potentiels d’une réglementation trop stricte sur l’IA ?
Croyez-vous que la transparence des données utilisées pour entraîner les modèles d’IA est essentielle ? Pourquoi ?
Quels avantages et inconvénients voyez-vous dans l’obligation pour les entreprises de fournir des résumés détaillés des données d’entraînement ?
Comment les législateurs peuvent-ils s’assurer que les réglementations sur l’IA ne freinent pas l’innovation tout en protégeant les droits des individus ?
Pensez-vous que les géants de la technologie ont trop d’influence sur les politiques publiques ? Pourquoi ou pourquoi pas ?
Quels seraient les impacts d’une réglementation européenne stricte sur l’IA sur les petites entreprises et les startups ?
Comment voyez-vous l’avenir de l’IA en Europe avec la mise en œuvre de cette loi ?
Quelles mesures supplémentaires proposeriez-vous pour améliorer la loi sur l’IA ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 27/10/2024 à 9:59
L'enfer normatif européens a déjà réussi à laminer l'industrie et l'agriculture voilà qu'il s'attaque maintenant à la tech (dont l'IA).
Pour commencer à "Entreprendre" il faut désormais avoir les moyens de se doter d'une armée de juriste et d'avocat, sans parler des taxes et impôts. Étouffant !

Je comprend pas qu'on ne commence pas à faire de la prévention dans les écoles concernant l'IA ? (Une IA peut raconter n'importe quoi, et ça sera toujours le cas !)
Introduire les élèves dès le plus jeune âge à l'esprit critique et à la compréhension de ce qu'est l'IA n'est-il pas la meilleur solution ?
4  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 23/09/2024 à 15:16
Citation Envoyé par Jules34 Voir le message
Indispensable ? Il est indispensable qu'il ne soit pas responsable oui. Pour la démocratie mais aussi par simple jugeotte.

Smith & Wesson n'assiste pas à tout les procès de meurtre commis avec une arme fabriqué dans une de leur usine. Les fournisseurs d'accès à internet ne sont pas aux procès des pédophiles qui ont utilisés leurs services de communication et des résultats de référencement. Le pdg de nokia n'assiste pas les dealer qui ont vendu de la came avec un téléphone portable.

Il est indispensable que la responsabilité individuelle soit maintenue et qu'on ne puisse pas accuser les autres quand on mange un sachet de lessive parce qu'on a vu un challenge sur tiktok. Et ainsi de suite.

L'IA ne change rien au fait que les individus sont responsables de leurs actes, qu'ils mentent, désinforment, tue, vole ou qu'ils trafique ! Pas la peine de chercher de nouveau responsable comme si il s'agissait des nouveaux grands prêtre de la société.

Ensuite la loi ne doit pas permettre aux gens d'être bête. L'IA non plus. Si je te dis de sauter du pont et que tu le fais en principe j'ai rien fait de mal sauf si je t'ai harcelé/menacé/manipulé pour que tu le fasses.

J'enlève l'exemple du journalisme car écrire/sourcer/autres des articles avec l'IA c'est pas du journalisme à mon sens. De toute façon les journalistes sont déjà mis en sourdine par la censure collective et étatique pas besoin de l'IA. J'ai plutôt le sentiment que l'IA va nous servir de la belle désinformation et va être mise massivement au service du contrôle social.

Tout le monde sera charlie, vacciné, pro Ukraine, pour les hausses d'impôts et l'émigration et n'oubliera bien sûr jamais Gaza !
Je pense que tu n'as pas compris ce que j'ai dit.
Je vais prendre deux exemples différents pour éclaircir mes propos.

Cas 1 : Une personne demande à un logiciel IA de créer des photos d'une personnalité connue faisant quelque chose d’illégale. L'IA réalise ce qui est demandé et la personne le publie en faisant croire que c'est une vraie info.
Dans ce cas, la personne est responsable et la société conceptrice et productrice de l'IA n'a rien à se reprocher.

Cas 2 : Une personne demande des informations concernant une autre personne a un logiciel d'IA. L'IA renvoie des données fausses et préjudiciables sur cette personne. Le demandeur publie ces infos renvoyées pas l'IA. Alors, pour moi, l'IA est responsable, et donc la société conceptrice et productrice de l'IA est responsable.

Si je reprends ton exemple sur Smith&Wesson, si l'arme explose blessant son propriétaire et les personnes qui sont autour, qui est responsable ?
1  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 23/09/2024 à 13:36
Citation Envoyé par Stéphane le calme Voir le message
Et vous ?

Croyez-vous que la transparence des données utilisées pour entraîner les modèles d’IA est essentielle ? Pourquoi ?
C'est évident. Ne serait-ce que pour savoir si les données utilisées sont dignes de confiance ou risque d'être basées sur du grand n'importe quoi. Imaginons un AI entrainée à partir de TikTok et/ou X (twitter) !
Ensuite, il n'y a pas de raison que le droit d'auteurs ne soit pas respecté par ces entreprises.
Citation Envoyé par Stéphane le calme Voir le message
Quelles mesures supplémentaires proposeriez-vous pour améliorer la loi sur l’IA ?
Je pense qu'il est indispensable que les sociétés qui déploient ces AI soient pénalement responsables des résultats fournis par leurs outils. Ex du journaliste se voyant accusé à des affaires criminelles qu'il a couvert dans la cadre de son travail.
2  2 
Avatar de Zeeraptor
Membre régulier https://www.developpez.com
Le 27/10/2024 à 6:51
Sans conformité,impossible d'aboutir a de grand projets
1  1 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 23/09/2024 à 14:31
Citation Envoyé par Jon Shannow Voir le message
Je pense qu'il est indispensable que les sociétés qui déploient ces AI soient pénalement responsables des résultats fournis par leurs outils.
Indispensable ? Il est indispensable qu'il ne soit pas responsable oui. Pour la démocratie mais aussi par simple jugeotte.

Smith & Wesson n'assiste pas à tout les procès de meurtre commis avec une arme fabriqué dans une de leur usine. Les fournisseurs d'accès à internet ne sont pas aux procès des pédophiles qui ont utilisés leurs services de communication et des résultats de référencement. Le pdg de nokia n'assiste pas les dealer qui ont vendu de la came avec un téléphone portable.

Il est indispensable que la responsabilité individuelle soit maintenue et qu'on ne puisse pas accuser les autres quand on mange un sachet de lessive parce qu'on a vu un challenge sur tiktok. Et ainsi de suite.

L'IA ne change rien au fait que les individus sont responsables de leurs actes, qu'ils mentent, désinforment, tue, vole ou qu'ils trafique ! Pas la peine de chercher de nouveau responsable comme si il s'agissait des nouveaux grands prêtre de la société.

Ensuite la loi ne doit pas permettre aux gens d'être bête. L'IA non plus. Si je te dis de sauter du pont et que tu le fais en principe j'ai rien fait de mal sauf si je t'ai harcelé/menacé/manipulé pour que tu le fasses.

J'enlève l'exemple du journalisme car écrire/sourcer/autres des articles avec l'IA c'est pas du journalisme à mon sens. De toute façon les journalistes sont déjà mis en sourdine par la censure collective et étatique pas besoin de l'IA. J'ai plutôt le sentiment que l'IA va nous servir de la belle désinformation et va être mise massivement au service du contrôle social.

Tout le monde sera charlie, vacciné, pro Ukraine, pour les hausses d'impôts et l'émigration et n'oubliera bien sûr jamais Gaza !
1  2