IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« La loi européenne sur l'IA arrive, cette fois-ci pour de vrai probablement », estime Wolfgang Hauptfleisch, architecte logiciel,
Deux commissions ont adopté un projet par 84 voix pour, 7 contre

Le , par Bruno

5PARTAGES

9  1 
Dans un billet de blog publié la semaine dernière, Wolfgang Hauptfleisch, architecte logiciel, parle du projet de loi sur l’intelligence artificielle (IA) de l’Union européenne (UE), qui vise à réguler le développement et l’utilisation de l’IA dans différents domaines. Il explique que le projet de loi a été adopté par deux commissions du Parlement européen, qui ont ajouté des amendements importants, comme l’interdiction de certaines utilisations d’IA jugées intrusives ou discriminatoires, la classification des systèmes d’IA utilisés par les grandes plateformes numériques comme à haut risque, et de nouvelles exigences de transparence et d’évaluation des risques pour les fournisseurs de modèles fondamentaux génératifs, comme GPT.

Hauptfleisch, qui est également passionné des machines et de l'espace, souligne que certains des amendements sont une réaction aux développements récents dans le domaine de l’IA, notamment l’impact potentiel des grands modèles de langage. Il conclut que le projet de loi sur l’IA pourrait être finalisé cette année, après un long processus de débat et de négociation.


Le Parlement européen a adopté le 3 mai un rapport sur l'intelligence artificielle, qui établit une liste de demandes visant à garantir la position de l'UE dans le domaine de l'IA, et désigne la recherche comme l'un des principaux moyens d'atteindre cet objectif. Le rapport vise notamment à établir une feuille de route pour l'intelligence artificielle (IA) à l'horizon 2030, avec plus de 150 recommandations politiques sur la gouvernance, le partage des données, l'infrastructure numérique, l'investissement, l'e-santé, l'e-gouvernance, l'industrie et la sécurité.

Le rapport en question est l'aboutissement d'un an et demi de travail de la commission spéciale du Parlement sur l'IA (AIDA). Il alimentera les travaux sur la future loi sur l'IA, première réglementation majeure de l'IA au niveau mondial, qui fixera des règles pour les utilisations de l'IA en fonction de leur niveau de risque. Les députés européens estiment que l'UE doit agir rapidement pour établir des règles claires en matière d'IA si elle veut avoir son mot à dire sur l'avenir de cette technologie. « Nous avons l'occasion de fixer des normes mondiales », avait déclaré le rapporteur du Parlement pour le dossier, Axel Voss.

Jeudi, la commission du marché intérieur et la commission des libertés civiles ont adopté un projet de mandat de négociation sur les premières règles relatives à l'intelligence artificielle par 84 voix pour, 7 contre et 12 abstentions. Dans leurs amendements à la proposition de la Commission, les députés visent à garantir que les systèmes d'intelligence artificielle soient supervisés par des personnes, qu'ils soient sûrs, transparents, traçables, non discriminatoires et respectueux de l'environnement. Ils souhaitent par ailleurs disposer d'une définition uniforme de l'IA, conçue pour être neutre sur le plan technologique, afin qu'elle puisse s'appliquer aux systèmes d'IA d'aujourd'hui et de demain. Pour Hauptfleisch, il pourrait s'agir du début de la phase finale de la loi européenne sur l'intelligence artificielle.

La première tentative de l'UE de réglementer l'intelligence artificielle a parcouru un long chemin : lorsque la Commission européenne a présenté son premier projet de loi en avril 2021, beaucoup s'attendaient à ce que la loi soit finalisée pour l'été 2022, mais depuis lors, de nombreux détails de la loi ont fait l'objet d'un débat acharné.

Approche de l'IA fondée sur les risques - Pratiques interdites en matière d'IA

Les règles suivent une approche fondée sur le risque et établissent des obligations pour les fournisseurs et les utilisateurs en fonction du niveau de risque que l'IA peut générer. Les systèmes d'IA présentant un niveau de risque inacceptable pour la sécurité des personnes seraient strictement interdits, y compris les systèmes qui déploient des techniques subliminales ou volontairement manipulatrices, qui exploitent les vulnérabilités des personnes ou qui sont utilisés pour le scoring social (classification des personnes en fonction de leur comportement social, de leur statut socio-économique ou de leurs caractéristiques personnelles).

Les députés ont substantiellement modifié la liste pour y inclure l'interdiction des utilisations intrusives et discriminatoires des systèmes d'intelligence artificielle, telles que les systèmes d'identification biométrique à distance en temps réel dans les espaces accessibles au public :

  • les systèmes d'identification biométrique à distance « en temps réel » dans les espaces accessibles au public ;
  • Les systèmes d'identification biométrique à distance « a posteriori », à la seule exception des forces de l'ordre pour la poursuite de crimes graves et seulement après autorisation judiciaire ;
  • les systèmes de catégorisation biométrique utilisant des caractéristiques sensibles (par exemple, le sexe, la race, l'appartenance ethnique, le statut de citoyen, la religion, l'orientation politique) ;
  • les systèmes de police prédictive (basés sur le profilage, la localisation ou le comportement criminel antérieur) ;
  • les systèmes de reconnaissance des émotions dans le cadre de l'application de la loi, de la gestion des frontières, sur le lieu de travail et dans les établissements d'enseignement ; et
  • l'extraction sans discernement de données biométriques des médias sociaux ou des images de vidéosurveillance pour créer des bases de données de reconnaissance faciale (en violation des droits de l'homme et du droit au respect de la vie privée).

Les députés ont élargi la classification des domaines à haut risque pour inclure les atteintes à la santé, à la sécurité, aux droits fondamentaux ou à l'environnement. Ils ont également ajouté les systèmes d'IA visant à influencer les électeurs dans les campagnes politiques et les systèmes de recommandation utilisés par les plateformes de médias sociaux (avec plus de 45 millions d'utilisateurs en vertu de la loi sur les services numériques) à la liste des domaines à haut risque.

IA à usage général - mesures de transparence

Les députés ont inclus des obligations pour les fournisseurs de modèles de fondation - un développement nouveau et en évolution rapide dans le domaine de l'IA - qui devraient garantir une protection solide des droits fondamentaux, de la santé et de la sécurité, de l'environnement, de la démocratie et de l'État de droit. Ils devront évaluer et atténuer les risques, se conformer aux exigences en matière de conception, d'information et d'environnement et s'enregistrer dans la base de données de l'UE.

Les modèles de base génératifs, comme le GPT, devront respecter des exigences supplémentaires en matière de transparence, comme la divulgation du fait que le contenu a été généré par l'IA, la conception du modèle pour éviter qu'il ne génère du contenu illégal et la publication de résumés des données protégées par le droit d'auteur utilisées pour la formation.

Soutenir l'innovation et protéger les droits des citoyens

Afin de stimuler l'innovation en matière d'IA, les députés ont ajouté des exemptions à ces règles pour les activités de recherche et les composants d'IA fournis sous licence libre. La nouvelle loi encourage les bacs à sable réglementaires, ou environnements contrôlés, établis par les autorités publiques pour tester l'IA avant son déploiement.

Les députés souhaitent renforcer le droit des citoyens à déposer des plaintes concernant les systèmes d'IA et à recevoir des explications sur les décisions basées sur des systèmes d'IA à haut risque qui ont un impact significatif sur leurs droits. Les députés ont également réformé le rôle de l'Office européen de l'IA, qui serait chargé de contrôler la mise en œuvre du règlement sur l'IA.

Après le vote, le co-rapporteur Brando Benifei (S&D, Italie) a déclaré : « Nous sommes sur le point de mettre en place une législation historique qui doit résister au défi du temps. Il est essentiel de renforcer la confiance des citoyens dans le développement de l'IA, de définir la voie européenne pour faire face aux changements extraordinaires qui se produisent déjà, ainsi que d'orienter le débat politique sur l'IA au niveau mondial. Nous sommes convaincus que notre texte établit un équilibre entre la protection des droits fondamentaux et la nécessité d'offrir une sécurité juridique aux entreprises et de stimuler l'innovation en Europe ».

Sources : blog posted by Wolfgang Hauptfleisch, European Parliament

Et vous ?

Quels sont les avantages et les inconvénients du projet de loi sur l’IA pour les développeurs, les utilisateurs et la société en général ?

Quels sont les défis et les limites de la mise en œuvre et du contrôle du respect du projet de loi sur l’IA ?

Comment le projet de loi sur l’IA se compare-t-il aux autres cadres réglementaires existants ?

Quel est l’impact potentiel du projet de loi sur l’IA sur l’innovation et la compétitivité de l’UE dans le domaine de l’IA ?

Voir aussi :

La Commission européenne annonce l'Alliance européenne pour les données et le cloud, elle contribuera à façonner la prochaine génération de services, d'infrastructures et de cloud sécurisé

L'intelligence artificielle menace-t-elle la démocratie dans le monde ? Oui, selon un conseiller principal à la Commission européenne

La Commission européenne critiquée et poursuivie pour avoir enfreint ses propres lois sur la protection des données, l'organisme de réglementation aurait transféré aux États-Unis des données

Intelligence artificielle : la feuille de route du Parlement européen, l'UE veut porter les investissements dans le secteur de l'IA à 20 milliards d'euros d'ici 2030

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de mith06
Membre expérimenté https://www.developpez.com
Le 16/06/2023 à 11:34
Quand ils vont se rendre compte qu "l'IA" permet de faire de la surveillance de masse, ils vont renommer ca en "algorithme à réseaux de neurone profond" pour contourner leur propre interdiction

les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes d'évaluation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits ;
Le modèle Chinois c'est leur rêve....

les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation.
Normalement tout c'est qui n'est pas interdit est autorisé.
Mais pour ces gens tout ce qui n'est pas autorisé devrait être interdit.
5  1 
Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 07/02/2024 à 22:16
Encore une étude de greenwashing
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/03/2024 à 11:22
Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!
4  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 10/04/2024 à 8:28
Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.
4  0 
Avatar de e-ric
Membre expert https://www.developpez.com
Le 16/05/2023 à 14:17
Citation Envoyé par Anselme45 Voir le message


C'est digne des meilleurs humoristes du monde...

L'UE qui est incapable d'imposer des règles à l'ensemble de ses 27 pays membres se propose... d'établir des normes mondiales???

C'est une vraie farce!

Que l'UE commence par établir qui a le droit à une chaise quand l'UE va visiter le sultan de Turquie Erdogan...
Bien vu, il faut veiller à normaliser le nombre de pieds de la dite chaise...
3  0 
Avatar de Prox_13
Membre éprouvé https://www.developpez.com
Le 25/05/2023 à 12:05
Citation Envoyé par Stéphane le calme Voir le message
Le PDG d'OpenAI a déclaré aux législateurs américains qu'il était favorable à une réglementation qui pourrait même inclure de nouvelles exigences de sécurité ou une agence gouvernementale pour tester les produits et assurer la conformité réglementaire.
Oui, évidemment. Le gouvernement qui aurait la main-mise sur les modèles d'IA les plus performants/expérimentaux. Qu'est ce qui pourrait mal se passer après tout ?
3  0 
Avatar de Prox_13
Membre éprouvé https://www.developpez.com
Le 25/05/2023 à 16:10
Citation Envoyé par walfrat Voir le message
Et qu'est ce qui pourrait se passer si a la place du gouvernement, ce sont des entreprises privées sans aucune régulation ? Qu'est ce qui pourrait mail se passer après tout
C'est pas précisément ce que dis l'article justement ? Que les entreprises privées doivent ployer à une réglementation européenne ? Et qu'OpenAI refuse de coopérer ?
3  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 26/05/2023 à 15:00
Le lobbying, ça fonctionne très bien en Europe : Sam Altman déclare qu'open ai ne quittera pas l'Europe.
2  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 06/06/2023 à 14:57
Je trouve qu'elle annonce une solution incomplète au problème.
Doit on reprocher à l'outil ou à l'utilisateur le résultat qui en ressort?
Faire un choix c'est déresponsabiliser l'autre donc j'ai tendance à dire que restreindre les sociétés qui produisent l'IA est très largement insuffisant.
Demain le moindre torchon diffusera de la merde et se dédouanera en prétextant que l'IA n'avait pas le warning qui va bien.
Demain le moindre politicien sortira des inepcies et se dédouanera en prétextant que l'IA n'avait pas le warning qui va bien.
Demain le moindre pseudo-scientifique sortira une étude moisie et se dédouanera en prétextant que l'IA n'avait pas le warning qui va bien.
...
La vérification fait partie de leur travail normalement.
3  1 
Avatar de mach1974
Membre averti https://www.developpez.com
Le 13/12/2023 à 16:20
Bonjour,
Un peu de rationalisation que diable. On reste sur de l'ia qui calcule les corrélations et en tire des arbres causaux sans décrire les mécaniques même avec LIME et SHAPE, alors que l'analyse grammaticale avec les COI et COD permet de déterminer le sujet et le complément , ce qui permet une logique de prédicat avec le respect des 3 lois d'ASIMOV. C'est un cauchemar. On va voir revenir le temps des sorciers même si Athur C Clarke parle de magie comme la techno qui disparaît. On va élever l'ordinateur au rang de Dieu dans la prochaine étape . C'est bien la peine de faire du modèle checking dans la norme ISO179 pour l'aéronautique ou dans le ferroviaire ....
2  0