Developpez.com - Rubrique IA

Le Club des Développeurs et IT Pro

Les contenus générés par l'IA générative devraient être étiquetés

Afin de prévenir les abus potentiels de la technologie et les risques de désinformation, selon la commissaire européenne Jourova

Le 2023-06-06 06:17:16, par Anthony, Chroniqueur Actualités
Les entreprises qui déploient des outils d'IA générative tels que ChatGPT et Bard, susceptibles de générer de la désinformation, devraient étiqueter ces contenus dans le cadre de leurs efforts de lutte contre les "fake news", a déclaré lundi Vera Jourova, vice-présidente de la Commission européenne.

Dévoilé à la fin de l'année dernière, l'outil ChatGPT d'OpenAI, soutenu par Microsoft, est devenu l'application grand public à la croissance la plus rapide de l'histoire et a déclenché une course entre les entreprises technologiques pour mettre sur le marché des produits d'IA générative.


Toutefois, les inquiétudes se multiplient quant aux abus potentiels de cette technologie et à la possibilité que des acteurs malveillants, voire des gouvernements, l'utilisent pour produire beaucoup plus de désinformation qu'auparavant.

"Les signataires qui intègrent l'IA générative dans leurs services, tels que Bingchat pour Microsoft ou Bard pour Google, doivent mettre en place les garanties nécessaires pour que ces services ne puissent pas être utilisés par des acteurs malveillants pour produire de la désinformation", a déclaré Mme Jourova lors d'une conférence de presse.

"Les signataires dont les services sont susceptibles de diffuser de la désinformation générée par l'IA devraient à leur tour mettre en place une technologie permettant de reconnaître ce type de contenu et de l'indiquer clairement aux utilisateurs", a-t-elle ajouté.


Les entreprises telles que Google, Microsoft et Meta Platforms qui ont signé le code de bonne pratique de l'UE pour lutter contre la désinformation devraient rendre compte des garanties mises en place pour lutter contre ce phénomène en juillet, a déclaré Mme Jourova.

Elle a averti Twitter, qui a quitté le Code la dernière semaine de mai, qu'il devait s'attendre à un examen plus approfondi de la part des autorités réglementaires.

"En quittant le Code, Twitter a attiré beaucoup d'attention et ses actions ainsi que sa conformité avec la législation européenne seront examinées de manière vigoureuse et urgente", a déclaré Mme Jourova.

Source : Vera Jourova, vice-présidente de la Commission européenne (https://youtu.be/RZg3ZJUzQ7U)

Et vous ?

Quel est votre avis sur le sujet ?

Que pensez-vous de la mesure proposée par Mme Jourova ? Trouvez-vous qu'elle sera efficace dans la lutte contre les fake news ?

Voir aussi

Les législateurs de l'UE s'accordent sur un projet de règles plus strictes en matière d'IA, les IA génératives comme ChatGPT devraient donner un résumé détaillé des données de formation sous copyright

Les chatbots d'IA pourraient aggraver la désinformation en ligne, en permettant aux acteurs malveillants de créer des campagnes plus rentables, et plus difficiles à repérer, selon certains chercheurs

Comment l'IA est utilisée pour diffuser la désinformation en ligne, d'après un nouveau document de recherche de ShadowDragon

La Chine procède à une première arrestation concernant des fake news générées par ChatGPT, la fausse information publiée sur les médias sociaux aurait obtenu plus de 15 000 clics
  Discussion forum
110 commentaires
  • mith06
    Membre expérimenté
    Quand ils vont se rendre compte qu "l'IA" permet de faire de la surveillance de masse, ils vont renommer ca en "algorithme à réseaux de neurone profond" pour contourner leur propre interdiction

    les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes d'évaluation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits ;
    Le modèle Chinois c'est leur rêve....

    les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation.
    Normalement tout c'est qui n'est pas interdit est autorisé.
    Mais pour ces gens tout ce qui n'est pas autorisé devrait être interdit.
  • OrthodoxWindows
    Membre émérite
    Encore une étude de greenwashing
  • Anselme45
    Membre extrêmement actif
    Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!
  • Jon Shannow
    Membre extrêmement actif
    Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

    Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.
  • totozor
    Membre expert
    Je trouve qu'elle annonce une solution incomplète au problème.
    Doit on reprocher à l'outil ou à l'utilisateur le résultat qui en ressort?
    Faire un choix c'est déresponsabiliser l'autre donc j'ai tendance à dire que restreindre les sociétés qui produisent l'IA est très largement insuffisant.
    Demain le moindre torchon diffusera de la merde et se dédouanera en prétextant que l'IA n'avait pas le warning qui va bien.
    Demain le moindre politicien sortira des inepcies et se dédouanera en prétextant que l'IA n'avait pas le warning qui va bien.
    Demain le moindre pseudo-scientifique sortira une étude moisie et se dédouanera en prétextant que l'IA n'avait pas le warning qui va bien.
    ...
    La vérification fait partie de leur travail normalement.
  • mach1974
    Membre averti
    Bonjour,
    Un peu de rationalisation que diable. On reste sur de l'ia qui calcule les corrélations et en tire des arbres causaux sans décrire les mécaniques même avec LIME et SHAPE, alors que l'analyse grammaticale avec les COI et COD permet de déterminer le sujet et le complément , ce qui permet une logique de prédicat avec le respect des 3 lois d'ASIMOV. C'est un cauchemar. On va voir revenir le temps des sorciers même si Athur C Clarke parle de magie comme la techno qui disparaît. On va élever l'ordinateur au rang de Dieu dans la prochaine étape . C'est bien la peine de faire du modèle checking dans la norme ISO179 pour l'aéronautique ou dans le ferroviaire ....
  • totozor
    Membre expert
    Envoyé par Jade Emy
    Il est essentiel de se pencher sur le type d'impact environnemental que l'IA peut finir par avoir. Cependant, il s'avère que l'IA pourrait en fait produire moins d'émissions de carbone que les humains, ce qui la rendrait plus durable. L'IA émet des centaines de fois moins de gaz à effet de serre que l'homme lorsqu'il s'agit d'écrire et de créer des images.
    C'est une analyse intéressante mais est ce que ça veut dire qu'utiliser une IA émet moins de carbone qu'utiliser une personne?
    Non, pour une raison simple:
    Quand la personne travaille et pas l'IA, l'IA n'émet rien
    Quand l'IA travaille et pas la personne, la personne émet toujours.
    Donc il faudrait comparer le surplus d'émission de la personne quand elle travaille à l'IA.
    Les autres facteurs sont nombreux :
    L'IA produit (probablement) peu de carbone quand elle travaille parce qu'elle est plus rapide que l'homme mais combien émet son apprentissage?
    L'IA nécessite une revue de son travail plus importante que la personne donc combien émet la différence de revue?
    Combien d'IA différente faut il pour remplacer toutes les taches d'une personne?
    Et je n'ai pas encore parlé de l'apport social d'une personne...

    Pensez-vous que cette étude est crédible ou pertinente ?
    L'étude en tant que telle à l'air crédible (faite de façon honnête et rigoureuse) par contre le but de celle ci me parait beaucoup moins pertinent.
    Quelle conclusion tirer? Qu'il faut faire travailler les IA plutôt que les personnes pour l'édition? Ce n'est pas ce que disent les chercheurs, c'est pourtant ce que nous lisons.
    Qui a financer cette étude? Dans quel but? Avec ces réponses nous aurons peut être une clarification de sa pertinence.
    On sait que l'un des auteur détient des actions chez NVIDIA mais je n'ai rien trouvé chez le financeur.
    Quel est votre avis sur le sujet ?
    L'IA n'a rien d'écologique parce qu'elle ajoute de la production de carbone à la production humaine, attaquer la question par cet angle est absurde. (A moins que l'on décide de "faire disparaitre" les personnes qui deviennent "inutiles" mais on dérive vers des gros problèmes éthiques).
    Par contre l'IA a d'autres avantages qui méritent d'être étudiés.

    Des gens essayent d'aborder les sujets de façon "rationnelle" en ce moment pour transformer des solutions plus ou moins absurdes en bon sens.
    La Science n'apporte pas toujours les bonnes réponses aux problèmes parce qu'elle ignore les sciences humaines ou l'éthique.
    Pourtant il me semble qu'Asimov nous avait déjà prévenu que cette méthode ne fonctionnait pas.
  • OrthodoxWindows
    Membre émérite
    Je suis d'accord avec cette loi dans les grandes ligne.

    Par contre j'ai une interrogation ; plus ça va, plus les IA type OpanAI vont pouvoir êtres fabriqués par des individus, et plus forcément par des entreprises. Du coup, cela risque d'être impossible à réguler pour l'EU. Et si régulation, passage dans un régime autoritaire de censure sur les DNS et ainsi de suite... Surtout que les initiatives comme celle-si se multiplies : https://gpt4all.io/index.html

    D'ailleurs :

    Les entreprises et les groupes industriels avertissent toutefois que l'Europe doit trouver un juste équilibre. Sam Altman, PDG d'OpenAI, a exprimé son soutien à certains garde-fous en matière d'IA et a signé, avec d'autres dirigeants d'entreprises technologiques, une mise en garde contre les risques qu'elle représente pour l'humanité. Mais il a également déclaré que c'était "une erreur d'imposer une réglementation lourde dans ce domaine dès maintenant". Microsoft et IBM ont salué le vote de mercredi, mais attendent avec impatience que la législation proposée soit affinée. Mais d'autres acteurs comme Meta semblent minimiser les risques.
    C'est justement Meta qui à ouvert les sources de ses algorithmes au chercheurs, puis qui a été victime d'une fuite.
  • Jules34
    Membre expérimenté
    il prévoit la création d'un organisme international de l'IA
    Bin si c'est pour faire l'OMS de l'IA ça va plus nous rapprocher de la fin du monde que nous en éloigner

    Chaque organisme mondial supplémentaire réduit un peu plus le droit des peuples à disposer d'eux même.
  • Jon Shannow
    Membre extrêmement actif
    Mon avis est double. D'un coté, je pense qu'il est important et urgent de légiférer, d'un autre, qu'il est nécessaire de préserver les acteurs moindres dans leurs recherches au niveau de l'IA.
    Je pense que la législation devrait mettre des barrières aux grandes entreprises afin de ne pas leur laisser le champ libre et de tuer dans l'œuf toute concurrence, comme ils savent si bien le faire.

    Mais gageons que le poids des billets de ces cadors, soit plus audible que toutes les objections raisonnables émises par un groupe moins... pourvus de liasses.