Developpez.com - Rubrique IA

Le Club des Développeurs et IT Pro

Les États-Unis et l'Union Européenne « devraient inciter le secteur de l'IA à adopter un code de conduite volontaire dans les mois à venir »

D'après la responsable de la technologie de l'UE

Le 2023-06-01 06:57:15, par Nancy Rey, Expert éminent sénior
La responsable européenne de la technologie, Margrethe Vestager, a déclaré, mercredi 31 mai 22023, qu'elle pense qu'un projet de code de conduite sur l'intelligence artificielle (IA) pourrait être rédigé dans les semaines à venir, permettant à l'industrie de s'engager sur une proposition finale "très, très bientôt". Les décideurs politiques et de nombreux acteurs de l'industrie ont exprimé leur inquiétude face à l'IA, en particulier l'IA générative créatrice de contenu telle que ChatGPT, certains l'assimilant aux risques posés par les pandémies ou les guerres nucléaires.


Vestager a déclaré que les États-Unis et l'Union européenne devraient promouvoir un code volontaire afin de fournir des garanties pendant que de nouvelles lois sont élaborées. « L'IA générative change complètement la donne », a déclaré Vestager, vice-présidente de la Commission européenne, lors d'une conférence de presse organisée à l'issue d'une réunion du Conseil du commerce et de la technologie (Trade and Technology Council : TTC) entre l'Union européenne et les États-Unis.

« Tout le monde sait qu'il s'agit d'une nouvelle technologie puissante. Dans les prochaines semaines, nous présenterons donc un projet de code de conduite sur l'IA », a-t-elle déclaré, ajoutant qu'elle espérait qu'une proposition finale serait présentée « très, très bientôt » et que l'industrie pourrait y adhérer.

Dans un tweet ultérieur, elle a mentionné le filigrane et les audits externes parmi les idées qui pourraient figurer dans le code. La loi sur l'IA de l'Union européenne, qui contient des règles sur la reconnaissance faciale et la surveillance biométrique, est encore en cours d'élaboration. « Dans le meilleur des cas, elle entrera en vigueur dans deux ans et demi ou trois ans. C'est manifestement beaucoup trop tard. Nous devons agir maintenant », a déclaré Vestager à la presse avant la réunion du Comité technique suédois.

La déclaration de clôture de la réunion du TTC indique que les deux partenaires ont créé des groupes d'experts chargés d'évaluer les risques liés à l'IA, de coopérer sur les normes relatives à l'IA et de surveiller les risques existants et émergents.

Les dirigeants des pays du G7 ont appelé ce mois-ci à l'élaboration de normes techniques pour que l'IA reste « digne de confiance », en préconisant des discussions internationales sur des sujets tels que la gouvernance, les droits d'auteur, la transparence et la menace de la désinformation. Vestager a déclaré qu'il est nécessaire de parvenir à un accord sur des points précis, suggérant que Bruxelles et Washington pourraient aider à conduire le processus, notant que le processus génératif "se développe à une vitesse étonnante".

Source : Margrethe Vestager, commissaire européenne chargée de la technologie

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi :

L'organisation européenne des consommateurs estime que la proposition de loi de l'Europe sur l'IA est faible, en matière de protection des consommateurs

L'UE pourrait commencer à appliquer des règles pour réglementer les Big Tech au printemps 2023, le DMA devrait permettre d'agir contre toute violation commise par les "gatekeepers"

Le PDG d'Apple estime que la politique technologique de l'UE menace la sécurité des iPhone, Tim Cook craint que l'application de DMA ne conduise à davantage de téléchargements hors de l'App Store

L'organisme européen de protection de la vie privée estime que la reconnaissance faciale devrait être interdite, en raison de son intrusion profonde et non démocratique dans la vie privée des gens
  Discussion forum
110 commentaires
  • mith06
    Membre expérimenté
    Quand ils vont se rendre compte qu "l'IA" permet de faire de la surveillance de masse, ils vont renommer ca en "algorithme à réseaux de neurone profond" pour contourner leur propre interdiction

    les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes d'évaluation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits ;
    Le modèle Chinois c'est leur rêve....

    les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation.
    Normalement tout c'est qui n'est pas interdit est autorisé.
    Mais pour ces gens tout ce qui n'est pas autorisé devrait être interdit.
  • OrthodoxWindows
    Membre émérite
    Encore une étude de greenwashing
  • Anselme45
    Membre extrêmement actif
    Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!
  • Jon Shannow
    Membre extrêmement actif
    Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

    Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.
  • totozor
    Membre expert
    Je trouve qu'elle annonce une solution incomplète au problème.
    Doit on reprocher à l'outil ou à l'utilisateur le résultat qui en ressort?
    Faire un choix c'est déresponsabiliser l'autre donc j'ai tendance à dire que restreindre les sociétés qui produisent l'IA est très largement insuffisant.
    Demain le moindre torchon diffusera de la merde et se dédouanera en prétextant que l'IA n'avait pas le warning qui va bien.
    Demain le moindre politicien sortira des inepcies et se dédouanera en prétextant que l'IA n'avait pas le warning qui va bien.
    Demain le moindre pseudo-scientifique sortira une étude moisie et se dédouanera en prétextant que l'IA n'avait pas le warning qui va bien.
    ...
    La vérification fait partie de leur travail normalement.
  • mach1974
    Membre averti
    Bonjour,
    Un peu de rationalisation que diable. On reste sur de l'ia qui calcule les corrélations et en tire des arbres causaux sans décrire les mécaniques même avec LIME et SHAPE, alors que l'analyse grammaticale avec les COI et COD permet de déterminer le sujet et le complément , ce qui permet une logique de prédicat avec le respect des 3 lois d'ASIMOV. C'est un cauchemar. On va voir revenir le temps des sorciers même si Athur C Clarke parle de magie comme la techno qui disparaît. On va élever l'ordinateur au rang de Dieu dans la prochaine étape . C'est bien la peine de faire du modèle checking dans la norme ISO179 pour l'aéronautique ou dans le ferroviaire ....
  • totozor
    Membre expert
    Envoyé par Jade Emy
    Il est essentiel de se pencher sur le type d'impact environnemental que l'IA peut finir par avoir. Cependant, il s'avère que l'IA pourrait en fait produire moins d'émissions de carbone que les humains, ce qui la rendrait plus durable. L'IA émet des centaines de fois moins de gaz à effet de serre que l'homme lorsqu'il s'agit d'écrire et de créer des images.
    C'est une analyse intéressante mais est ce que ça veut dire qu'utiliser une IA émet moins de carbone qu'utiliser une personne?
    Non, pour une raison simple:
    Quand la personne travaille et pas l'IA, l'IA n'émet rien
    Quand l'IA travaille et pas la personne, la personne émet toujours.
    Donc il faudrait comparer le surplus d'émission de la personne quand elle travaille à l'IA.
    Les autres facteurs sont nombreux :
    L'IA produit (probablement) peu de carbone quand elle travaille parce qu'elle est plus rapide que l'homme mais combien émet son apprentissage?
    L'IA nécessite une revue de son travail plus importante que la personne donc combien émet la différence de revue?
    Combien d'IA différente faut il pour remplacer toutes les taches d'une personne?
    Et je n'ai pas encore parlé de l'apport social d'une personne...

    Pensez-vous que cette étude est crédible ou pertinente ?
    L'étude en tant que telle à l'air crédible (faite de façon honnête et rigoureuse) par contre le but de celle ci me parait beaucoup moins pertinent.
    Quelle conclusion tirer? Qu'il faut faire travailler les IA plutôt que les personnes pour l'édition? Ce n'est pas ce que disent les chercheurs, c'est pourtant ce que nous lisons.
    Qui a financer cette étude? Dans quel but? Avec ces réponses nous aurons peut être une clarification de sa pertinence.
    On sait que l'un des auteur détient des actions chez NVIDIA mais je n'ai rien trouvé chez le financeur.
    Quel est votre avis sur le sujet ?
    L'IA n'a rien d'écologique parce qu'elle ajoute de la production de carbone à la production humaine, attaquer la question par cet angle est absurde. (A moins que l'on décide de "faire disparaitre" les personnes qui deviennent "inutiles" mais on dérive vers des gros problèmes éthiques).
    Par contre l'IA a d'autres avantages qui méritent d'être étudiés.

    Des gens essayent d'aborder les sujets de façon "rationnelle" en ce moment pour transformer des solutions plus ou moins absurdes en bon sens.
    La Science n'apporte pas toujours les bonnes réponses aux problèmes parce qu'elle ignore les sciences humaines ou l'éthique.
    Pourtant il me semble qu'Asimov nous avait déjà prévenu que cette méthode ne fonctionnait pas.
  • OrthodoxWindows
    Membre émérite
    Je suis d'accord avec cette loi dans les grandes ligne.

    Par contre j'ai une interrogation ; plus ça va, plus les IA type OpanAI vont pouvoir êtres fabriqués par des individus, et plus forcément par des entreprises. Du coup, cela risque d'être impossible à réguler pour l'EU. Et si régulation, passage dans un régime autoritaire de censure sur les DNS et ainsi de suite... Surtout que les initiatives comme celle-si se multiplies : https://gpt4all.io/index.html

    D'ailleurs :

    Les entreprises et les groupes industriels avertissent toutefois que l'Europe doit trouver un juste équilibre. Sam Altman, PDG d'OpenAI, a exprimé son soutien à certains garde-fous en matière d'IA et a signé, avec d'autres dirigeants d'entreprises technologiques, une mise en garde contre les risques qu'elle représente pour l'humanité. Mais il a également déclaré que c'était "une erreur d'imposer une réglementation lourde dans ce domaine dès maintenant". Microsoft et IBM ont salué le vote de mercredi, mais attendent avec impatience que la législation proposée soit affinée. Mais d'autres acteurs comme Meta semblent minimiser les risques.
    C'est justement Meta qui à ouvert les sources de ses algorithmes au chercheurs, puis qui a été victime d'une fuite.
  • Jules34
    Membre expérimenté
    il prévoit la création d'un organisme international de l'IA
    Bin si c'est pour faire l'OMS de l'IA ça va plus nous rapprocher de la fin du monde que nous en éloigner

    Chaque organisme mondial supplémentaire réduit un peu plus le droit des peuples à disposer d'eux même.
  • Jon Shannow
    Membre extrêmement actif
    Mon avis est double. D'un coté, je pense qu'il est important et urgent de légiférer, d'un autre, qu'il est nécessaire de préserver les acteurs moindres dans leurs recherches au niveau de l'IA.
    Je pense que la législation devrait mettre des barrières aux grandes entreprises afin de ne pas leur laisser le champ libre et de tuer dans l'œuf toute concurrence, comme ils savent si bien le faire.

    Mais gageons que le poids des billets de ces cadors, soit plus audible que toutes les objections raisonnables émises par un groupe moins... pourvus de liasses.