IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les contenus générés par l'IA générative devraient être étiquetés
Afin de prévenir les abus potentiels de la technologie et les risques de désinformation, selon la commissaire européenne Jourova

Le , par Anthony

11PARTAGES

9  1 
Les entreprises qui déploient des outils d'IA générative tels que ChatGPT et Bard, susceptibles de générer de la désinformation, devraient étiqueter ces contenus dans le cadre de leurs efforts de lutte contre les "fake news", a déclaré lundi Vera Jourova, vice-présidente de la Commission européenne.

Dévoilé à la fin de l'année dernière, l'outil ChatGPT d'OpenAI, soutenu par Microsoft, est devenu l'application grand public à la croissance la plus rapide de l'histoire et a déclenché une course entre les entreprises technologiques pour mettre sur le marché des produits d'IA générative.


Toutefois, les inquiétudes se multiplient quant aux abus potentiels de cette technologie et à la possibilité que des acteurs malveillants, voire des gouvernements, l'utilisent pour produire beaucoup plus de désinformation qu'auparavant.

"Les signataires qui intègrent l'IA générative dans leurs services, tels que Bingchat pour Microsoft ou Bard pour Google, doivent mettre en place les garanties nécessaires pour que ces services ne puissent pas être utilisés par des acteurs malveillants pour produire de la désinformation", a déclaré Mme Jourova lors d'une conférence de presse.

"Les signataires dont les services sont susceptibles de diffuser de la désinformation générée par l'IA devraient à leur tour mettre en place une technologie permettant de reconnaître ce type de contenu et de l'indiquer clairement aux utilisateurs", a-t-elle ajouté.


Les entreprises telles que Google, Microsoft et Meta Platforms qui ont signé le code de bonne pratique de l'UE pour lutter contre la désinformation devraient rendre compte des garanties mises en place pour lutter contre ce phénomène en juillet, a déclaré Mme Jourova.

Elle a averti Twitter, qui a quitté le Code la dernière semaine de mai, qu'il devait s'attendre à un examen plus approfondi de la part des autorités réglementaires.

"En quittant le Code, Twitter a attiré beaucoup d'attention et ses actions ainsi que sa conformité avec la législation européenne seront examinées de manière vigoureuse et urgente", a déclaré Mme Jourova.

Source : Vera Jourova, vice-présidente de la Commission européenne (https://youtu.be/RZg3ZJUzQ7U)

Et vous ?

Quel est votre avis sur le sujet ?

Que pensez-vous de la mesure proposée par Mme Jourova ? Trouvez-vous qu'elle sera efficace dans la lutte contre les fake news ?

Voir aussi

Les législateurs de l'UE s'accordent sur un projet de règles plus strictes en matière d'IA, les IA génératives comme ChatGPT devraient donner un résumé détaillé des données de formation sous copyright

Les chatbots d'IA pourraient aggraver la désinformation en ligne, en permettant aux acteurs malveillants de créer des campagnes plus rentables, et plus difficiles à repérer, selon certains chercheurs

Comment l'IA est utilisée pour diffuser la désinformation en ligne, d'après un nouveau document de recherche de ShadowDragon

La Chine procède à une première arrestation concernant des fake news générées par ChatGPT, la fausse information publiée sur les médias sociaux aurait obtenu plus de 15 000 clics

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de mith06
Membre expérimenté https://www.developpez.com
Le 16/06/2023 à 11:34
Quand ils vont se rendre compte qu "l'IA" permet de faire de la surveillance de masse, ils vont renommer ca en "algorithme à réseaux de neurone profond" pour contourner leur propre interdiction

les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes d'évaluation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits ;
Le modèle Chinois c'est leur rêve....

les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation.
Normalement tout c'est qui n'est pas interdit est autorisé.
Mais pour ces gens tout ce qui n'est pas autorisé devrait être interdit.
5  1 
Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 07/02/2024 à 22:16
Encore une étude de greenwashing
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/03/2024 à 11:22
Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!
4  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 10/04/2024 à 8:28
Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.
4  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 06/06/2023 à 14:57
Je trouve qu'elle annonce une solution incomplète au problème.
Doit on reprocher à l'outil ou à l'utilisateur le résultat qui en ressort?
Faire un choix c'est déresponsabiliser l'autre donc j'ai tendance à dire que restreindre les sociétés qui produisent l'IA est très largement insuffisant.
Demain le moindre torchon diffusera de la merde et se dédouanera en prétextant que l'IA n'avait pas le warning qui va bien.
Demain le moindre politicien sortira des inepcies et se dédouanera en prétextant que l'IA n'avait pas le warning qui va bien.
Demain le moindre pseudo-scientifique sortira une étude moisie et se dédouanera en prétextant que l'IA n'avait pas le warning qui va bien.
...
La vérification fait partie de leur travail normalement.
3  1 
Avatar de mach1974
Membre averti https://www.developpez.com
Le 13/12/2023 à 16:20
Bonjour,
Un peu de rationalisation que diable. On reste sur de l'ia qui calcule les corrélations et en tire des arbres causaux sans décrire les mécaniques même avec LIME et SHAPE, alors que l'analyse grammaticale avec les COI et COD permet de déterminer le sujet et le complément , ce qui permet une logique de prédicat avec le respect des 3 lois d'ASIMOV. C'est un cauchemar. On va voir revenir le temps des sorciers même si Athur C Clarke parle de magie comme la techno qui disparaît. On va élever l'ordinateur au rang de Dieu dans la prochaine étape . C'est bien la peine de faire du modèle checking dans la norme ISO179 pour l'aéronautique ou dans le ferroviaire ....
2  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 10/04/2024 à 8:01
Citation Envoyé par Jade Emy Voir le message
Il est essentiel de se pencher sur le type d'impact environnemental que l'IA peut finir par avoir. Cependant, il s'avère que l'IA pourrait en fait produire moins d'émissions de carbone que les humains, ce qui la rendrait plus durable. L'IA émet des centaines de fois moins de gaz à effet de serre que l'homme lorsqu'il s'agit d'écrire et de créer des images.
C'est une analyse intéressante mais est ce que ça veut dire qu'utiliser une IA émet moins de carbone qu'utiliser une personne?
Non, pour une raison simple:
Quand la personne travaille et pas l'IA, l'IA n'émet rien
Quand l'IA travaille et pas la personne, la personne émet toujours.
Donc il faudrait comparer le surplus d'émission de la personne quand elle travaille à l'IA.
Les autres facteurs sont nombreux :
L'IA produit (probablement) peu de carbone quand elle travaille parce qu'elle est plus rapide que l'homme mais combien émet son apprentissage?
L'IA nécessite une revue de son travail plus importante que la personne donc combien émet la différence de revue?
Combien d'IA différente faut il pour remplacer toutes les taches d'une personne?
Et je n'ai pas encore parlé de l'apport social d'une personne...

Pensez-vous que cette étude est crédible ou pertinente ?
L'étude en tant que telle à l'air crédible (faite de façon honnête et rigoureuse) par contre le but de celle ci me parait beaucoup moins pertinent.
Quelle conclusion tirer? Qu'il faut faire travailler les IA plutôt que les personnes pour l'édition? Ce n'est pas ce que disent les chercheurs, c'est pourtant ce que nous lisons.
Qui a financer cette étude? Dans quel but? Avec ces réponses nous aurons peut être une clarification de sa pertinence.
On sait que l'un des auteur détient des actions chez NVIDIA mais je n'ai rien trouvé chez le financeur.
Quel est votre avis sur le sujet ?
L'IA n'a rien d'écologique parce qu'elle ajoute de la production de carbone à la production humaine, attaquer la question par cet angle est absurde. (A moins que l'on décide de "faire disparaitre" les personnes qui deviennent "inutiles" mais on dérive vers des gros problèmes éthiques).
Par contre l'IA a d'autres avantages qui méritent d'être étudiés.

Des gens essayent d'aborder les sujets de façon "rationnelle" en ce moment pour transformer des solutions plus ou moins absurdes en bon sens.
La Science n'apporte pas toujours les bonnes réponses aux problèmes parce qu'elle ignore les sciences humaines ou l'éthique.
Pourtant il me semble qu'Asimov nous avait déjà prévenu que cette méthode ne fonctionnait pas.
2  0 
Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 15/06/2023 à 1:24
Je suis d'accord avec cette loi dans les grandes ligne.

Par contre j'ai une interrogation ; plus ça va, plus les IA type OpanAI vont pouvoir êtres fabriqués par des individus, et plus forcément par des entreprises. Du coup, cela risque d'être impossible à réguler pour l'EU. Et si régulation, passage dans un régime autoritaire de censure sur les DNS et ainsi de suite... Surtout que les initiatives comme celle-si se multiplies : https://gpt4all.io/index.html

D'ailleurs :

Les entreprises et les groupes industriels avertissent toutefois que l'Europe doit trouver un juste équilibre. Sam Altman, PDG d'OpenAI, a exprimé son soutien à certains garde-fous en matière d'IA et a signé, avec d'autres dirigeants d'entreprises technologiques, une mise en garde contre les risques qu'elle représente pour l'humanité. Mais il a également déclaré que c'était "une erreur d'imposer une réglementation lourde dans ce domaine dès maintenant". Microsoft et IBM ont salué le vote de mercredi, mais attendent avec impatience que la législation proposée soit affinée. Mais d'autres acteurs comme Meta semblent minimiser les risques.
C'est justement Meta qui à ouvert les sources de ses algorithmes au chercheurs, puis qui a été victime d'une fuite.
1  0 
Avatar de Jules34
Membre expérimenté https://www.developpez.com
Le 27/10/2023 à 9:41
il prévoit la création d'un organisme international de l'IA
Bin si c'est pour faire l'OMS de l'IA ça va plus nous rapprocher de la fin du monde que nous en éloigner

Chaque organisme mondial supplémentaire réduit un peu plus le droit des peuples à disposer d'eux même.
1  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 15/11/2023 à 15:30
Mon avis est double. D'un coté, je pense qu'il est important et urgent de légiférer, d'un autre, qu'il est nécessaire de préserver les acteurs moindres dans leurs recherches au niveau de l'IA.
Je pense que la législation devrait mettre des barrières aux grandes entreprises afin de ne pas leur laisser le champ libre et de tuer dans l'œuf toute concurrence, comme ils savent si bien le faire.

Mais gageons que le poids des billets de ces cadors, soit plus audible que toutes les objections raisonnables émises par un groupe moins... pourvus de liasses.
1  0