IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

AI Act : les nouvelles règles européennes en matière d'intelligence artificielle entrent en vigueur
L'objectif déclaré est d'encourager le développement et l'adoption de systèmes IA sûrs et fiables en UE

Le , par Stéphane le calme

21PARTAGES

7  0 
Le 1er août 2024, le règlement sur l’intelligence artificielle (IA) de l’Union européenne est entré en vigueur. Cette législation vise à encourager le développement et l’adoption de systèmes d’IA sûrs et fiables sur le marché unique de l’UE, tant par les acteurs privés que publics. Elle s’efforce également de garantir le respect des droits fondamentaux des citoyens de l’UE tout en stimulant les investissements et l’innovation dans le domaine de l’intelligence artificielle en Europe.

La rapidité spectaculaire du développement de l'intelligence artificielle au cours des deux dernières années a attiré l'attention du public et suscité des débats autour d'une nouvelle révolution technologique. La promesse de l'intelligence artificielle à l'humanité est qu'elle peut nous rendre plus efficaces - et donc nous permettre de consacrer nos esprits avancés à des activités plus importantes.

Pourtant, il y a de nombreuses raisons de ne pas laisser cette version idéalisée du développement de l'IA s'installer trop longtemps dans notre esprit. Des universitaires, des scientifiques et même les concepteurs de l'IA eux-mêmes ont mis en garde contre les risques considérables que son développement rapide fait courir à l'humanité. À mesure que nous créons de nouvelles formes d'IA et que nous les alimentons avec des quantités de données de plus en plus importantes, leurs capacités sont susceptibles de s'affiner, et elles pourraient acquérir la capacité « d'apprendre », en ingérant des données pour se former elles-mêmes, ainsi qu'en créant potentiellement leurs propres techniques de manipulation à utiliser contre les humains.

L'intelligence artificielle n'a pas besoin d'être sensible pour représenter un risque pour l'humanité. Sa maîtrise du langage, qui s'est produite bien plus rapidement que prévu, suffit à polariser nos sociétés grâce à sa capacité à manipuler les informations que nous absorbons en ligne. Ne pas savoir si une image est réelle ou générée par l'IA, ou si le discours d'un homme politique est un deepfake plutôt qu'une vidéo authentique, pourrait avoir d'immenses conséquences sur ce que les gens croient, sur les relations que nous construisons les uns avec les autres et créer des compréhensions radicalement différentes du monde qui nous entoure.

Face à ces perspectives effrayantes, l'une des réponses actuellement sur la table est l'Artificial Intelligence Act de l'UE. La Commission européenne a initialement publié la proposition de loi sur l'intelligence artificielle (loi sur l'IA) en 2021, mais l'introduction du ChatGPT a semblé renforcer l'attention et l'urgence de sa mise en place. Ainsi, aux premières heures du samedi 9 décembre 2023, les institutions de l'UE ont trouvé un accord, finalisant ainsi la loi sur l'IA après trente-six longues heures de négociations.

La loi sur l'IA est un texte législatif historique qui devrait servir de référence mondiale pendant des années, principalement grâce à un cadre réglementaire adaptable conçu pour être modifié au fur et à mesure que la technologie progresse. Sa flexibilité n'est pas le seul aspect qui fait de la loi sur l'IA un framework intéressant (dont s'inspire déjà d'ailleurs la Californie) : la législation est conçue autour de l'utilisation de la technologie plutôt que de réglementer la technologie elle-même.

Cela signifie que des applications spécifiques, telles que l'utilisation de l'identification biométrique à distance par les forces de l'ordre, seront fortement restreintes, tout en permettant la poursuite de la recherche et du développement dans le domaine de l'IA. Pour ce faire, elle doit toutefois être en mesure d'équilibrer la réglementation et l'innovation, tout en laissant l'UE ouverte à la coopération avec les pays tiers.


Vue d'ensemble

La structure très axée sur le risque de cette législation a fait l'objet de critiques assez vives, en particulier de la part du monde des affaires. La plus importante est une lettre ouverte signée par 150 chefs d'entreprise qui craignent que la loi sur l'IA ne dissuade les startups et les entreprises européennes d'investir dans leurs propres systèmes d'IA ou de les développer.

Si les entreprises d'IA décidaient de cesser leurs activités dans l'UE ou ne parvenaient pas à générer suffisamment d'investissements en raison d'un environnement réglementaire défavorable, la compétitivité internationale de l'UE par rapport à ses homologues américains et chinois pourrait s'en trouver sérieusement affectée. Le recours aux technologies étrangères est déjà une réalité au sein de l'UE. Cependant, l'UE tente désormais activement d'inverser cette situation par le biais de son discours sur la souveraineté numérique et le filtrage des investissements étrangers.

Son argument est que les nouveaux développeurs seraient confrontés à des coûts d'entrée élevés sur le marché de l'IA en raison de tous les efforts à fournir pour se mettre en conformité. Un cadre législatif plus large serait préférable, d'autant plus que les applications modernes de l'IA sont très récentes et qu'elles évolueront rapidement dans les années, voire les mois, à venir. Les critiques soutiennent qu'un régime réglementaire strict désavantagerait l'UE et l'amènerait probablement à se laisser distancer davantage par les États-Unis et la Chine en termes de capacité technologique.

L'entrée en vigueur de la loi européenne sur l'IA

La loi européenne sur l'intelligence artificielle est entrée en vigueur ce jeudi et s'appliquera à tous les systèmes d'intelligence artificielle (IA) déjà en place ou en cours de développement. Cette loi est largement considérée comme la première législation au monde qui tente de réglementer l'intelligence artificielle en fonction des risques qu'elle présente.

Les législateurs ont adopté la législation en mars, mais sa publication au Journal officiel de la Commission européenne en juillet a mis en branle le processus d'entrée en vigueur.

La date du 1er août marque le début d'une série de dates et d'échéances au cours des mois et des années à venir, afin de préparer les entreprises qui utilisent l'IA à se familiariser avec la nouvelle législation et à s'y conformer.


La loi sur l'IA évalue les entreprises en fonction des risques

La loi européenne sur l'IA assigne ses règles à chaque entreprise utilisant des systèmes d'IA en fonction de quatre niveaux de risque, qui déterminent à leur tour les délais qui leur sont applicables. Les quatre types de risque sont les suivants : aucun risque, risque minimal, risque élevé et systèmes d'IA interdits.

L'UE interdira totalement certaines pratiques à partir de février 2025. Il s'agit notamment de celles qui manipulent la prise de décision d'un utilisateur ou qui élargissent les bases de données de reconnaissance faciale par le biais du « scraping » sur internet.

D'autres systèmes d'IA considérés comme présentant un risque élevé, tels que les IA qui collectent des données biométriques et les IA utilisées pour les infrastructures critiques ou les décisions en matière d'emploi, feront l'objet des réglementations les plus strictes.

Ces entreprises devront notamment présenter leurs ensembles de données d'entraînement à l'IA et fournir la preuve d'une supervision humaine.

Selon Thomas Regnier, porte-parole de la Commission européenne, environ 85 % des entreprises d'IA relèvent de la deuxième catégorie, celle du "risque minimal", qui ne nécessite que très peu de réglementation.


Les entreprises auront besoin d'une période comprise entre 3 et 6 mois pour se conformer

Heather Dawe, responsable de l'IA responsable au sein de la société de conseil UST, travaille déjà avec des clients internationaux pour mettre leur utilisation de l'IA en conformité avec la nouvelle loi. Les clients internationaux de Dawe sont « d'accord » avec les nouvelles exigences de la loi parce qu'ils reconnaissent la nécessité d'une réglementation de l'IA.

Selon elle, la mise en conformité avec la nouvelle loi pourrait prendre entre trois et six mois, en fonction de la taille de l'entreprise et de l'importance du rôle de l'IA dans son flux de travail. « Il existe un ensemble de lignes directrices claires sur ce qu'il faut faire », a déclaré Dawe. « Toute complication est due au fait que le processus n'a pas été lancé assez rapidement ».

Les entreprises pourraient envisager de mettre en place des conseils internes de gouvernance de l'IA, a poursuivi Dawe, avec des experts en droit, en technologie et en sécurité pour effectuer un audit complet des technologies utilisées et de la manière dont elles doivent adhérer à la nouvelle loi.

Si une entreprise n'est pas en conformité avec la loi sur l'IA dans les délais impartis, elle risque une amende pouvant aller jusqu'à 7 % de son chiffre d'affaires annuel global, a rappelé Regnier, de la Commission.

Comment la Commission se prépare

L'Office de l'IA de la Commission supervisera le respect des règles relatives aux modèles d'IA à usage général. Soixante membres du personnel de la Commission seront réorientés vers ce bureau et 80 autres candidats externes seront recrutés au cours de l'année prochaine, a indiqué Regnier.

Un conseil de l'IA composé de délégués de haut niveau des 27 États membres de l'UE a « posé les bases » de la mise en œuvre de la loi lors de sa première réunion en juin, selon un communiqué de presse. Le conseil travaillera avec l'office de l'IA pour s'assurer que l'application de la loi est harmonisée dans toute l'UE, a ajouté Regnier.

Plus de 700 entreprises ont déclaré qu'elles signeraient un pacte sur l'IA, dans lequel elles s'engagent à se conformer rapidement à la loi.

Les États membres de l'UE ont jusqu'au mois d'août prochain pour mettre en place les autorités nationales compétentes qui superviseront l'application des règles dans leur pays.

La Commission se prépare également à relancer ses investissements dans l'IA, avec une injection d'un milliard d'euros en 2024 et jusqu'à 20 milliards d'euros d'ici 2030.

« Ce que l'on entend partout, c'est que ce que fait l'UE est purement réglementaire (...) et que cela va bloquer l'innovation. Ce n'est pas vrai », a déclaré Regnier. « La législation n'est pas là pour empêcher les entreprises de lancer leurs systèmes, bien au contraire ». « Nous voulons qu'elles opèrent dans l'UE, mais nous voulons aussi protéger nos citoyens et nos entreprises ».

Pour la Commission, l'un des principaux défis est de réglementer les futures technologies d'IA, a déclaré Regnier, mais il pense que le système basé sur le risque signifie qu'elle peut rapidement réglementer tout nouveau système.

Points de vue des critiques et des partisans

Les inquiétudes concernant la capacité d'innovation de l'Union européenne sont certainement justifiées. Les fonctionnaires européens mentionnent constamment le manque de grandes entreprises technologiques sur le continent et le « retard » par rapport à d'autres grands acteurs mondiaux.

Le développement moderne et rapide de l'intelligence artificielle pourrait présenter un scénario différent. Contrairement au développement de l'internet au début des années 90 et à la croissance des plateformes en ligne dans les années 2000, l'UE réglemente alors que l'utilisation et l'importance de la technologie augmentent à l'échelle mondiale.

Alors que le marché de l'IA commence à exploser et que les modèles se développent correctement, l'Union européenne a anticipé l'importance et le caractère révolutionnaire de ces nouvelles technologies. La réglementation vise à protéger contre les dommages potentiels, ce qui a sans doute été fait trop tard dans le cas de l'internet et de l'essor des grands réseaux de médias sociaux.

La loi sur les services numériques et la loi sur les marchés numériques, adoptées en 2022, étaient des tentatives pour contrôler les entreprises de la Big Tech dont les pratiques algorithmiques et les modèles commerciaux préjudiciables étaient déjà profondément enracinés. Cette fois, l'UE a l'occasion de créer un environnement sain permettant aux entreprises d'innover et de se développer dans ce nouveau secteur.

Sources : parlement européen (1, 2), Europe AI Office, conseil de l'UE, lettre ouverte

Et vous ?

Évaluation des risques : Les entreprises doivent évaluer les risques liés à leurs systèmes d’IA et prendre des mesures pour minimiser ces risques.
Interdiction des systèmes dangereux : Certains systèmes d’IA, tels que la surveillance de masse, sont interdits en raison de leur impact potentiellement néfaste.
Transparence et documentation : Les développeurs d’IA doivent fournir des informations claires sur le fonctionnement de leurs systèmes et documenter leurs décisions.
Surveillance indépendante : Des organismes de surveillance indépendants seront chargés de veiller à la conformité avec la législation.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 27/10/2024 à 9:59
L'enfer normatif européens a déjà réussi à laminer l'industrie et l'agriculture voilà qu'il s'attaque maintenant à la tech (dont l'IA).
Pour commencer à "Entreprendre" il faut désormais avoir les moyens de se doter d'une armée de juriste et d'avocat, sans parler des taxes et impôts. Étouffant !

Je comprend pas qu'on ne commence pas à faire de la prévention dans les écoles concernant l'IA ? (Une IA peut raconter n'importe quoi, et ça sera toujours le cas !)
Introduire les élèves dès le plus jeune âge à l'esprit critique et à la compréhension de ce qu'est l'IA n'est-il pas la meilleur solution ?
4  0 
Avatar de der§en
Membre éprouvé https://www.developpez.com
Le 02/08/2024 à 7:19
Petit pastiche d’une citation de Georges Clemenceau:

L’Europe est un continent extrêmement fertile : on y plante des fonctionnaires non élus et il y pousse des règlements abscons !
3  0 
Avatar de Fluxgraveon
Membre actif https://www.developpez.com
Le 02/08/2024 à 10:06
La Commission se prépare également à relancer ses investissements dans l'IA, avec une injection d'un milliard d'euros en 2024 et jusqu'à 20 milliards d'euros d'ici 2030.
Ridicule.
2  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 23/09/2024 à 15:16
Citation Envoyé par Jules34 Voir le message
Indispensable ? Il est indispensable qu'il ne soit pas responsable oui. Pour la démocratie mais aussi par simple jugeotte.

Smith & Wesson n'assiste pas à tout les procès de meurtre commis avec une arme fabriqué dans une de leur usine. Les fournisseurs d'accès à internet ne sont pas aux procès des pédophiles qui ont utilisés leurs services de communication et des résultats de référencement. Le pdg de nokia n'assiste pas les dealer qui ont vendu de la came avec un téléphone portable.

Il est indispensable que la responsabilité individuelle soit maintenue et qu'on ne puisse pas accuser les autres quand on mange un sachet de lessive parce qu'on a vu un challenge sur tiktok. Et ainsi de suite.

L'IA ne change rien au fait que les individus sont responsables de leurs actes, qu'ils mentent, désinforment, tue, vole ou qu'ils trafique ! Pas la peine de chercher de nouveau responsable comme si il s'agissait des nouveaux grands prêtre de la société.

Ensuite la loi ne doit pas permettre aux gens d'être bête. L'IA non plus. Si je te dis de sauter du pont et que tu le fais en principe j'ai rien fait de mal sauf si je t'ai harcelé/menacé/manipulé pour que tu le fasses.

J'enlève l'exemple du journalisme car écrire/sourcer/autres des articles avec l'IA c'est pas du journalisme à mon sens. De toute façon les journalistes sont déjà mis en sourdine par la censure collective et étatique pas besoin de l'IA. J'ai plutôt le sentiment que l'IA va nous servir de la belle désinformation et va être mise massivement au service du contrôle social.

Tout le monde sera charlie, vacciné, pro Ukraine, pour les hausses d'impôts et l'émigration et n'oubliera bien sûr jamais Gaza !
Je pense que tu n'as pas compris ce que j'ai dit.
Je vais prendre deux exemples différents pour éclaircir mes propos.

Cas 1 : Une personne demande à un logiciel IA de créer des photos d'une personnalité connue faisant quelque chose d’illégale. L'IA réalise ce qui est demandé et la personne le publie en faisant croire que c'est une vraie info.
Dans ce cas, la personne est responsable et la société conceptrice et productrice de l'IA n'a rien à se reprocher.

Cas 2 : Une personne demande des informations concernant une autre personne a un logiciel d'IA. L'IA renvoie des données fausses et préjudiciables sur cette personne. Le demandeur publie ces infos renvoyées pas l'IA. Alors, pour moi, l'IA est responsable, et donc la société conceptrice et productrice de l'IA est responsable.

Si je reprends ton exemple sur Smith&Wesson, si l'arme explose blessant son propriétaire et les personnes qui sont autour, qui est responsable ?
1  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 23/09/2024 à 13:36
Citation Envoyé par Stéphane le calme Voir le message
Et vous ?

Croyez-vous que la transparence des données utilisées pour entraîner les modèles d’IA est essentielle ? Pourquoi ?
C'est évident. Ne serait-ce que pour savoir si les données utilisées sont dignes de confiance ou risque d'être basées sur du grand n'importe quoi. Imaginons un AI entrainée à partir de TikTok et/ou X (twitter) !
Ensuite, il n'y a pas de raison que le droit d'auteurs ne soit pas respecté par ces entreprises.
Citation Envoyé par Stéphane le calme Voir le message

Quelles mesures supplémentaires proposeriez-vous pour améliorer la loi sur l’IA ?
Je pense qu'il est indispensable que les sociétés qui déploient ces AI soient pénalement responsables des résultats fournis par leurs outils. Ex du journaliste se voyant accusé à des affaires criminelles qu'il a couvert dans la cadre de son travail.
2  2 
Avatar de Zeeraptor
Membre régulier https://www.developpez.com
Le 27/10/2024 à 6:51
Sans conformité,impossible d'aboutir a de grand projets
1  1 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 23/09/2024 à 14:31
Citation Envoyé par Jon Shannow Voir le message
Je pense qu'il est indispensable que les sociétés qui déploient ces AI soient pénalement responsables des résultats fournis par leurs outils.
Indispensable ? Il est indispensable qu'il ne soit pas responsable oui. Pour la démocratie mais aussi par simple jugeotte.

Smith & Wesson n'assiste pas à tout les procès de meurtre commis avec une arme fabriqué dans une de leur usine. Les fournisseurs d'accès à internet ne sont pas aux procès des pédophiles qui ont utilisés leurs services de communication et des résultats de référencement. Le pdg de nokia n'assiste pas les dealer qui ont vendu de la came avec un téléphone portable.

Il est indispensable que la responsabilité individuelle soit maintenue et qu'on ne puisse pas accuser les autres quand on mange un sachet de lessive parce qu'on a vu un challenge sur tiktok. Et ainsi de suite.

L'IA ne change rien au fait que les individus sont responsables de leurs actes, qu'ils mentent, désinforment, tue, vole ou qu'ils trafique ! Pas la peine de chercher de nouveau responsable comme si il s'agissait des nouveaux grands prêtre de la société.

Ensuite la loi ne doit pas permettre aux gens d'être bête. L'IA non plus. Si je te dis de sauter du pont et que tu le fais en principe j'ai rien fait de mal sauf si je t'ai harcelé/menacé/manipulé pour que tu le fasses.

J'enlève l'exemple du journalisme car écrire/sourcer/autres des articles avec l'IA c'est pas du journalisme à mon sens. De toute façon les journalistes sont déjà mis en sourdine par la censure collective et étatique pas besoin de l'IA. J'ai plutôt le sentiment que l'IA va nous servir de la belle désinformation et va être mise massivement au service du contrôle social.

Tout le monde sera charlie, vacciné, pro Ukraine, pour les hausses d'impôts et l'émigration et n'oubliera bien sûr jamais Gaza !
1  2