Developpez.com - Rubrique IA

Le Club des Développeurs et IT Pro

« La loi européenne sur l'IA arrive, cette fois-ci pour de vrai probablement », estime Wolfgang Hauptfleisch, architecte logiciel,

Deux commissions ont adopté un projet par 84 voix pour, 7 contre

Le 2023-05-15 08:06:20, par Bruno, Chroniqueur Actualités
Dans un billet de blog publié la semaine dernière, Wolfgang Hauptfleisch, architecte logiciel, parle du projet de loi sur l’intelligence artificielle (IA) de l’Union européenne (UE), qui vise à réguler le développement et l’utilisation de l’IA dans différents domaines. Il explique que le projet de loi a été adopté par deux commissions du Parlement européen, qui ont ajouté des amendements importants, comme l’interdiction de certaines utilisations d’IA jugées intrusives ou discriminatoires, la classification des systèmes d’IA utilisés par les grandes plateformes numériques comme à haut risque, et de nouvelles exigences de transparence et d’évaluation des risques pour les fournisseurs de modèles fondamentaux génératifs, comme GPT.

Hauptfleisch, qui est également passionné des machines et de l'espace, souligne que certains des amendements sont une réaction aux développements récents dans le domaine de l’IA, notamment l’impact potentiel des grands modèles de langage. Il conclut que le projet de loi sur l’IA pourrait être finalisé cette année, après un long processus de débat et de négociation.


Le Parlement européen a adopté le 3 mai un rapport sur l'intelligence artificielle, qui établit une liste de demandes visant à garantir la position de l'UE dans le domaine de l'IA, et désigne la recherche comme l'un des principaux moyens d'atteindre cet objectif. Le rapport vise notamment à établir une feuille de route pour l'intelligence artificielle (IA) à l'horizon 2030, avec plus de 150 recommandations politiques sur la gouvernance, le partage des données, l'infrastructure numérique, l'investissement, l'e-santé, l'e-gouvernance, l'industrie et la sécurité.

Le rapport en question est l'aboutissement d'un an et demi de travail de la commission spéciale du Parlement sur l'IA (AIDA). Il alimentera les travaux sur la future loi sur l'IA, première réglementation majeure de l'IA au niveau mondial, qui fixera des règles pour les utilisations de l'IA en fonction de leur niveau de risque. Les députés européens estiment que l'UE doit agir rapidement pour établir des règles claires en matière d'IA si elle veut avoir son mot à dire sur l'avenir de cette technologie. « Nous avons l'occasion de fixer des normes mondiales », avait déclaré le rapporteur du Parlement pour le dossier, Axel Voss.

Jeudi, la commission du marché intérieur et la commission des libertés civiles ont adopté un projet de mandat de négociation sur les premières règles relatives à l'intelligence artificielle par 84 voix pour, 7 contre et 12 abstentions. Dans leurs amendements à la proposition de la Commission, les députés visent à garantir que les systèmes d'intelligence artificielle soient supervisés par des personnes, qu'ils soient sûrs, transparents, traçables, non discriminatoires et respectueux de l'environnement. Ils souhaitent par ailleurs disposer d'une définition uniforme de l'IA, conçue pour être neutre sur le plan technologique, afin qu'elle puisse s'appliquer aux systèmes d'IA d'aujourd'hui et de demain. Pour Hauptfleisch, il pourrait s'agir du début de la phase finale de la loi européenne sur l'intelligence artificielle.

La première tentative de l'UE de réglementer l'intelligence artificielle a parcouru un long chemin : lorsque la Commission européenne a présenté son premier projet de loi en avril 2021, beaucoup s'attendaient à ce que la loi soit finalisée pour l'été 2022, mais depuis lors, de nombreux détails de la loi ont fait l'objet d'un débat acharné.

Approche de l'IA fondée sur les risques - Pratiques interdites en matière d'IA

Les règles suivent une approche fondée sur le risque et établissent des obligations pour les fournisseurs et les utilisateurs en fonction du niveau de risque que l'IA peut générer. Les systèmes d'IA présentant un niveau de risque inacceptable pour la sécurité des personnes seraient strictement interdits, y compris les systèmes qui déploient des techniques subliminales ou volontairement manipulatrices, qui exploitent les vulnérabilités des personnes ou qui sont utilisés pour le scoring social (classification des personnes en fonction de leur comportement social, de leur statut socio-économique ou de leurs caractéristiques personnelles).

Les députés ont substantiellement modifié la liste pour y inclure l'interdiction des utilisations intrusives et discriminatoires des systèmes d'intelligence artificielle, telles que les systèmes d'identification biométrique à distance en temps réel dans les espaces accessibles au public :

  • les systèmes d'identification biométrique à distance « en temps réel » dans les espaces accessibles au public ;
  • Les systèmes d'identification biométrique à distance « a posteriori », à la seule exception des forces de l'ordre pour la poursuite de crimes graves et seulement après autorisation judiciaire ;
  • les systèmes de catégorisation biométrique utilisant des caractéristiques sensibles (par exemple, le sexe, la race, l'appartenance ethnique, le statut de citoyen, la religion, l'orientation politique) ;
  • les systèmes de police prédictive (basés sur le profilage, la localisation ou le comportement criminel antérieur) ;
  • les systèmes de reconnaissance des émotions dans le cadre de l'application de la loi, de la gestion des frontières, sur le lieu de travail et dans les établissements d'enseignement ; et
  • l'extraction sans discernement de données biométriques des médias sociaux ou des images de vidéosurveillance pour créer des bases de données de reconnaissance faciale (en violation des droits de l'homme et du droit au respect de la vie privée).

Les députés ont élargi la classification des domaines à haut risque pour inclure les atteintes à la santé, à la sécurité, aux droits fondamentaux ou à l'environnement. Ils ont également ajouté les systèmes d'IA visant à influencer les électeurs dans les campagnes politiques et les systèmes de recommandation utilisés par les plateformes de médias sociaux (avec plus de 45 millions d'utilisateurs en vertu de la loi sur les services numériques) à la liste des domaines à haut risque.

IA à usage général - mesures de transparence

Les députés ont inclus des obligations pour les fournisseurs de modèles de fondation - un développement nouveau et en évolution rapide dans le domaine de l'IA - qui devraient garantir une protection solide des droits fondamentaux, de la santé et de la sécurité, de l'environnement, de la démocratie et de l'État de droit. Ils devront évaluer et atténuer les risques, se conformer aux exigences en matière de conception, d'information et d'environnement et s'enregistrer dans la base de données de l'UE.

Les modèles de base génératifs, comme le GPT, devront respecter des exigences supplémentaires en matière de transparence, comme la divulgation du fait que le contenu a été généré par l'IA, la conception du modèle pour éviter qu'il ne génère du contenu illégal et la publication de résumés des données protégées par le droit d'auteur utilisées pour la formation.

Soutenir l'innovation et protéger les droits des citoyens

Afin de stimuler l'innovation en matière d'IA, les députés ont ajouté des exemptions à ces règles pour les activités de recherche et les composants d'IA fournis sous licence libre. La nouvelle loi encourage les bacs à sable réglementaires, ou environnements contrôlés, établis par les autorités publiques pour tester l'IA avant son déploiement.

Les députés souhaitent renforcer le droit des citoyens à déposer des plaintes concernant les systèmes d'IA et à recevoir des explications sur les décisions basées sur des systèmes d'IA à haut risque qui ont un impact significatif sur leurs droits. Les députés ont également réformé le rôle de l'Office européen de l'IA, qui serait chargé de contrôler la mise en œuvre du règlement sur l'IA.

Après le vote, le co-rapporteur Brando Benifei (S&D, Italie) a déclaré : « Nous sommes sur le point de mettre en place une législation historique qui doit résister au défi du temps. Il est essentiel de renforcer la confiance des citoyens dans le développement de l'IA, de définir la voie européenne pour faire face aux changements extraordinaires qui se produisent déjà, ainsi que d'orienter le débat politique sur l'IA au niveau mondial. Nous sommes convaincus que notre texte établit un équilibre entre la protection des droits fondamentaux et la nécessité d'offrir une sécurité juridique aux entreprises et de stimuler l'innovation en Europe ».

Sources : blog posted by Wolfgang Hauptfleisch, European Parliament

Et vous ?

Quels sont les avantages et les inconvénients du projet de loi sur l’IA pour les développeurs, les utilisateurs et la société en général ?

Quels sont les défis et les limites de la mise en œuvre et du contrôle du respect du projet de loi sur l’IA ?

Comment le projet de loi sur l’IA se compare-t-il aux autres cadres réglementaires existants ?

Quel est l’impact potentiel du projet de loi sur l’IA sur l’innovation et la compétitivité de l’UE dans le domaine de l’IA ?

Voir aussi :

La Commission européenne annonce l'Alliance européenne pour les données et le cloud, elle contribuera à façonner la prochaine génération de services, d'infrastructures et de cloud sécurisé

L'intelligence artificielle menace-t-elle la démocratie dans le monde ? Oui, selon un conseiller principal à la Commission européenne

La Commission européenne critiquée et poursuivie pour avoir enfreint ses propres lois sur la protection des données, l'organisme de réglementation aurait transféré aux États-Unis des données

Intelligence artificielle : la feuille de route du Parlement européen, l'UE veut porter les investissements dans le secteur de l'IA à 20 milliards d'euros d'ici 2030
  Discussion forum
110 commentaires
  • mith06
    Membre expérimenté
    Quand ils vont se rendre compte qu "l'IA" permet de faire de la surveillance de masse, ils vont renommer ca en "algorithme à réseaux de neurone profond" pour contourner leur propre interdiction

    les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes d'évaluation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits ;
    Le modèle Chinois c'est leur rêve....

    les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation.
    Normalement tout c'est qui n'est pas interdit est autorisé.
    Mais pour ces gens tout ce qui n'est pas autorisé devrait être interdit.
  • OrthodoxWindows
    Membre émérite
    Encore une étude de greenwashing
  • Anselme45
    Membre extrêmement actif
    Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!
  • Jon Shannow
    Membre extrêmement actif
    Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

    Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.
  • e-ric
    Membre expert
    Envoyé par Anselme45


    C'est digne des meilleurs humoristes du monde...

    L'UE qui est incapable d'imposer des règles à l'ensemble de ses 27 pays membres se propose... d'établir des normes mondiales???

    C'est une vraie farce!

    Que l'UE commence par établir qui a le droit à une chaise quand l'UE va visiter le sultan de Turquie Erdogan...
    Bien vu, il faut veiller à normaliser le nombre de pieds de la dite chaise...
  • Prox_13
    Membre éprouvé
    Envoyé par Stéphane le calme
    Le PDG d'OpenAI a déclaré aux législateurs américains qu'il était favorable à une réglementation qui pourrait même inclure de nouvelles exigences de sécurité ou une agence gouvernementale pour tester les produits et assurer la conformité réglementaire.
    Oui, évidemment. Le gouvernement qui aurait la main-mise sur les modèles d'IA les plus performants/expérimentaux. Qu'est ce qui pourrait mal se passer après tout ?
  • Prox_13
    Membre éprouvé
    Envoyé par walfrat
    Et qu'est ce qui pourrait se passer si a la place du gouvernement, ce sont des entreprises privées sans aucune régulation ? Qu'est ce qui pourrait mail se passer après tout
    C'est pas précisément ce que dis l'article justement ? Que les entreprises privées doivent ployer à une réglementation européenne ? Et qu'OpenAI refuse de coopérer ?
  • marsupial
    Expert éminent
    Le lobbying, ça fonctionne très bien en Europe : Sam Altman déclare qu'open ai ne quittera pas l'Europe.
  • totozor
    Membre expert
    Je trouve qu'elle annonce une solution incomplète au problème.
    Doit on reprocher à l'outil ou à l'utilisateur le résultat qui en ressort?
    Faire un choix c'est déresponsabiliser l'autre donc j'ai tendance à dire que restreindre les sociétés qui produisent l'IA est très largement insuffisant.
    Demain le moindre torchon diffusera de la merde et se dédouanera en prétextant que l'IA n'avait pas le warning qui va bien.
    Demain le moindre politicien sortira des inepcies et se dédouanera en prétextant que l'IA n'avait pas le warning qui va bien.
    Demain le moindre pseudo-scientifique sortira une étude moisie et se dédouanera en prétextant que l'IA n'avait pas le warning qui va bien.
    ...
    La vérification fait partie de leur travail normalement.
  • mach1974
    Membre averti
    Bonjour,
    Un peu de rationalisation que diable. On reste sur de l'ia qui calcule les corrélations et en tire des arbres causaux sans décrire les mécaniques même avec LIME et SHAPE, alors que l'analyse grammaticale avec les COI et COD permet de déterminer le sujet et le complément , ce qui permet une logique de prédicat avec le respect des 3 lois d'ASIMOV. C'est un cauchemar. On va voir revenir le temps des sorciers même si Athur C Clarke parle de magie comme la techno qui disparaît. On va élever l'ordinateur au rang de Dieu dans la prochaine étape . C'est bien la peine de faire du modèle checking dans la norme ISO179 pour l'aéronautique ou dans le ferroviaire ....