IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La loi européenne sur l'intelligence artificielle est retardée, les législateurs n'ayant pas réussi à se mettre d'accord sur un ensemble de propositions de base

Le , par Sandra Coret

1PARTAGES

5  0 
Les projets de l'Union européenne visant à réglementer l'intelligence artificielle (IA) sont confrontés à une nouvelle pierre d'achoppement, les législateurs n'ayant pas réussi à se mettre d'accord sur un ensemble de propositions de base.

La très attendue loi sur l'IA devrait être soumise au vote du Parlement européen à la fin du mois de mars, après quoi chaque pays commencera à négocier les conditions finales de la législation.

Cependant, à l'issue d'une réunion cruciale de cinq heures à Bruxelles mercredi, les députés européens n'ont pas encore réussi à se mettre d'accord sur un ensemble de principes de base.

Au cœur de leur différend se trouve la nécessité de trouver un équilibre entre les droits fondamentaux, tels que la confidentialité des données et la participation démocratique, et la nécessité d'éviter d'étouffer l'innovation et l'investissement dans le secteur.

L'un des points les plus controversés du débat consiste à déterminer quels systèmes d'IA seraient classés dans la catégorie "à haut risque", par exemple ceux qui affectent la sécurité d'une personne ou portent atteinte aux droits fondamentaux. Ceux qui déploient de tels systèmes seraient soumis à des règles strictes de transparence et de contrôle.


"La tension évidente ici est entre l'accent mis sur les droits fondamentaux, d'une part, et ceux qui disent que ceux-ci entrent nécessairement en conflit avec l'innovation", a déclaré l'eurodéputé des Verts Sergey Lagodinsky.

Une source au Parlement européen a déclaré que des négociations étaient en cours en vue de convenir d'un texte fort.

"Le dossier est long et complexe, les députés européens travaillent dur pour parvenir à un accord sur leur mandat de négociation. Cependant, il n'y a pas de date limite ou de calendrier sur les prochaines étapes."

Source : Parlement Européen

Et vous ?

Qu'en pensez-vous ?
À votre avis, ces règlementations de l'intelligence artificielle vont-elles empêcher l'innovation dans le secteur ?

Voir aussi :

La loi européenne sur l'intelligence artificielle peut avoir un effet dissuasif sur les efforts en matière de logiciels libres, avertissent les experts de la Brookings Institution

L'organisation européenne des consommateurs estime que la proposition de loi de l'Europe sur l'IA est faible, en matière de protection des consommateurs

Le PDG de GitHub explique pourquoi les développeurs de logiciels libres devraient être exemptés de la loi européenne sur l'IA, ajoutant que cela pourrait aider l'UE à devenir le leader du secteur

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Refuznik
Membre éclairé https://www.developpez.com
Le 15/04/2023 à 21:57
Que pensez-vous de la proposition des parlementaires européens ?
Qu'ils sont complètement dans le flou.

Selon vous, quelles seraient les conséquences d'une telle réglementation pour les créateurs de chatbots d'IA ?
Bah, on n'a pas de règles claires (en tout vas je n'en vois pas dans cet article) donc c'est dur de se prononcer.

Par contre, la 1er régle donné elle est deja hors sol ou la virgule est mal placé. Je cite "...les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes de notation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits."
Oui, un système notation basé sur l'IA doit être interdit dans tous les cas et on a beaucoup d'exemples dans le monde professionnel.
Par contre parler de gouvernement chinois et de leur notation individuel est complètement à côté de la plaque vu que ce système n'existe pas.

Extrait d'un article du MIT :
Existe-t-il donc un score de crédit social centralisé calculé pour chaque citoyen chinois ?
Non. Contrairement à la croyance populaire, il n'y a pas de score central de crédit social pour les individus. Et franchement, le gouvernement central chinois n'a jamais parlé d'en vouloir un.


Y a-t-il une technologie de pointe, comme l'intelligence artificielle, impliquée dans le système ?
Pour la plupart, non. C'est un autre mythe courant sur le système de crédit social en Chine : les gens s'imaginent que pour suivre les comportements sociaux de plus d'un milliard de personnes, il doit y avoir un puissant algorithme central qui peut collecter et traiter les données.

Mais ce n'est pas vrai. Puisqu'il n'y a pas de système central qui note tout le monde, ce type d'algorithme puissant n'est même pas nécessaire. Les experts du système de crédit social chinois affirment que l'ensemble de l'infrastructure est étonnamment peu technologique. Alors que les responsables chinois nomment parfois des technologies telles que la blockchain et l'intelligence artificielle lorsqu'ils parlent du système, ils ne parlent jamais en détail de la manière dont ces technologies pourraient être utilisées. Si vous consultez le site Web de Credit China, ce n'est rien de plus qu'une bibliothèque numérisée de bases de données distinctes.


Lien : https://www.technologyreview.com/202...-does-it-mean/
4  0 
Avatar de mith06
Membre expérimenté https://www.developpez.com
Le 16/06/2023 à 11:34
Quand ils vont se rendre compte qu "l'IA" permet de faire de la surveillance de masse, ils vont renommer ca en "algorithme à réseaux de neurone profond" pour contourner leur propre interdiction

les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes d'évaluation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits ;
Le modèle Chinois c'est leur rêve....

les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation.
Normalement tout c'est qui n'est pas interdit est autorisé.
Mais pour ces gens tout ce qui n'est pas autorisé devrait être interdit.
5  1 
Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 07/02/2024 à 22:16
Encore une étude de greenwashing
4  0 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 07/03/2023 à 9:27
Citation Envoyé par ciola Voir le message
"ChatGPT présente des preuves de raisonnement déductif et de chaîne de pensée"
Je l'ai essayé pour voir s'il pouvait faire des preuves en géométrie et c'est vraiment pas fameux. Ses démonstrations ressemblent beaucoup aux tentatives d'enfumage de certains de mes étudiants quand ils ne maîtrisent le sujet.
En soi on le sait déjà que les maths sont pas son point fort.

En même temps c'est une IA qui est faite pour des "conversations" plus que des "démonstrations scientifiques".
3  0 
Avatar de stardeath
Expert confirmé https://www.developpez.com
Le 16/04/2023 à 21:06
Citation Envoyé par Nym4x Voir le message
C'est un peu comme si j'allais braquer une banque puis j'utilisais l'argent pour devenir actionnaire majoritaire de la banque.
pas vraiment non, dans le cas de la banque, tu dépossèdes la-dite banque de "son" argent qu'elle n'a donc plus.
ici, de la même manière que la grande époque des copies pirates, du droit à la copie privée, etc. tu utilises des données donc déjà tu ne soustrais pas ces informations de celui qui les as publié.

ensuite c'est stricto sensu identique à toi ou autre qui irait à gauche et à droite glaner, je sais pas trop, des styles de textes ou des dessins que tu aimes, et t'en servir pour produire toi même une nouvelle œuvre.
surtout ici dans un forum sur la programmation, avec les copiés/collés provenant de stackoverflow, github ou autres, on serait les premier à tomber pour "vol".
il me semble que dans cette optique les dévs de wine sont interdits de même lire les leaks du code de windows pour éviter de produire du code qui serait un peu ressemblant. bref.

les gens sont enragés parce que le processus devient industriel, parce que sinon, ils devraient râler et faire interdire toutes les nouvelles œuvres qui sortent chaque jour (qui, sauf à ce que l'auteur créé un truc de toute pièce sans aucune ressemblance avec quelque chose déjà paru, ressemble forcément à de l’existant).

là on est juste sur l'exemple typique d'un ralentisseur qu'on met que sur un coté de la route :
- celui qui a commandé le projet peut se vanter de mériter son salaire sous couvert de sécurité routière ;
- tout le monde passera à coté, y compris celui qui l'a commandé, parce qu'il y a suffisamment de place pour contourner.
3  0 
Avatar de Madmac
Membre extrêmement actif https://www.developpez.com
Le 21/04/2023 à 1:00
Citation Envoyé par Ryu2000 Voir le message
Une batterie amovible ça prend de la place et ça coute cher, c'est pour ça qu'il n'y en a plus dans les smartphones.
Je ne sais pas où tu as pris cette idée. Car en pratique ce sont exactement les mêmes batteries. Et je ne parle pas de batterie AA ou AAA rechargeable. Mais de pile plate pour les téléphones. Sauf que maintenant les fils sont soudés alors qu'auparavant, ils étaient reliés avec un connecteur

Ton téléphone est toujours raccordé au réseau, même quand il est fermé. Appel un ami et demande-lui de t'envoyer un texto dans 5 minutes et ferme ton téléphone. Je ne sais pas si c'est à la demande de la CIA ou de la NSA, mais la géo-position est activable à distance.
3  0 
Avatar de Franck Z
Membre régulier https://www.developpez.com
Le 21/04/2023 à 15:44
J'ai une petite inquiétude qui trotte dans ma tête : les échanges (mails, forums, etc...) risquent-ils d'être aussi inclus (un jour) dans les données d'apprentissage de ces IA ? Idem pour les requêtes faites aux robots/moteurs de recherche ? Il me semble avoir lu que des sociétés comme GMail analysent déjà les mails privés de leurs utilisateurs pour le ciblage publicitaire ; la tentation d'une analyse au profit d'IA génératives va être grande pour eux.

Parce que sinon, on va voir non seulement des oeuvres (finies) pillées par les IA mais aussi celles en cours de réalisation...

Pour fixer un exemple : un écrivain/scénariste qui participe à un forum d'écrivain pour chercher du soutien ou des retours sur son projet, ou qui simplement en discute par mail avec son éditeur pourrait-il voir ses idées utilisées pour les réponses d'une IA avant même que son oeuvre soit achevée et soumise au droit d'auteur ?
3  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 11/05/2023 à 17:15
Concernant les droits fondamentaux et la dignité humaine, rien dans cette loi ne parle de l'accès au travail en concurrence avec l'IA. Je crois qu'il s'agit d'une des principales préoccupations du peuple que l'accès à l'emploi, ou sa conservation, et la peur du grand remplacement. Peut-être un revenu universel en Europe ?
3  0 
Avatar de e-ric
Membre expert https://www.developpez.com
Le 16/05/2023 à 14:17
Citation Envoyé par Anselme45 Voir le message


C'est digne des meilleurs humoristes du monde...

L'UE qui est incapable d'imposer des règles à l'ensemble de ses 27 pays membres se propose... d'établir des normes mondiales???

C'est une vraie farce!

Que l'UE commence par établir qui a le droit à une chaise quand l'UE va visiter le sultan de Turquie Erdogan...
Bien vu, il faut veiller à normaliser le nombre de pieds de la dite chaise...
3  0 
Avatar de Prox_13
Membre éclairé https://www.developpez.com
Le 25/05/2023 à 12:05
Citation Envoyé par Stéphane le calme Voir le message
Le PDG d'OpenAI a déclaré aux législateurs américains qu'il était favorable à une réglementation qui pourrait même inclure de nouvelles exigences de sécurité ou une agence gouvernementale pour tester les produits et assurer la conformité réglementaire.
Oui, évidemment. Le gouvernement qui aurait la main-mise sur les modèles d'IA les plus performants/expérimentaux. Qu'est ce qui pourrait mal se passer après tout ?
3  0