Les législateurs européens réclament une nouvelle réglementation pour faire face à l'essor de l'IA
Dans un contexte marqué par l'absence de règles de sécurité adéquates qui encadrent la technologie
Le 2023-04-20 13:50:35, par Anthony, Chroniqueur Actualités
Des dizaines de législateurs de l'Union européenne expriment leur désarroi face à l'essor de la technologie de l'IA en l'absence de mesures de sécurité adéquates. C'est pourquoi ils réclament davantage de règles pour garantir que les outils d'IA ne soient pas utilisés sans contrôle, y compris ceux désignés comme étant à haut risque par la loi européenne sur l'IA.
Une nouvelle lettre ouverte publiée le lundi 17 avril montre comment plusieurs membres du Parlement appellent à la coopération internationale. Il s'agit de mettre en place des garde-fous pour le développement d'outils d'IA qui, selon les experts du secteur, pourraient bientôt devenir les plus dangereux et les plus puissants du marché si des précautions adéquates n'étaient pas prises.
Cette lettre nous parvient après qu'un grand groupe d'experts en IA ait appelé la nation européenne à établir davantage de règles en matière d'IA qui soient réellement étendues. Ils ont également fait valoir que l'objectif général de la technologie de l'IA pourrait finir par manquer sa cible.
Cette catégorie englobe une large liste d'outils, dont ChatGPT, qui n'ont peut-être pas été conçus en tenant compte du facteur de risque élevé, mais qui pourraient être utilisés dans différents contextes présentant des risques plus importants.
La lettre ouverte au public poursuit en mentionnant que les législateurs se sont mis d'accord sur la manière dont la loi sur l'IA vise à traiter les cas d'IA à haut risque. Mais dans le même temps, ils exigent également des réglementations préliminaires complémentaires pour créer et déployer des systèmes d'IA plus puissants qui pourraient être adoptés pour une série d'objectifs différents.
Les législateurs ont ajouté une référence à une autre lettre publiée récemment, dans laquelle de nombreux milliardaires et scientifiques de premier plan du secteur technologique ont accepté de suspendre la formation à l'IA dans les laboratoires pendant six mois. Il s'agissait d'un système plus puissant que l'actuel modèle technologique GPT-4.
Les législateurs de l'UE ont révélé qu'ils partageaient une grande partie des préoccupations exprimées dans la lettre, car le rythme auquel nous assistons aux progrès de la technologie de l'IA est tout simplement trop alarmant, ce qui justifie l'intervention nécessaire de l'attention politique avant que la situation ne devienne incontrôlable.
Ils se sont même engagés à ce qu'un ensemble de règles soit mis en place dans le cadre de la loi sur l'IA afin de guider le développement de l'IA d'une manière plus sûre et plus fiable. De même, ils souhaitent que des personnalités politiques de premier plan telles que le président américain Biden et la présidente de la Commission européenne Ursula von der Leyen en prennent note et définissent de nouveaux principes pour le contrôle et l'utilisation de l'IA.
Source : Twitter
Et vous ?
Quel est votre avis sur le sujet ?
Selon vous, la démarche entreprise par les législateurs de l'UE est-elle justifiée ou pertinente ?
Selon vous, en l'état actuel des choses, l'IA doit-elle être mieux réglementée pour éviter ses potentielles dérives ?
Voir aussi
L'UE envisagerait des règles très strictes pour les chatbots dans le cadre de son projet de loi sur l'IA elle devrait exiger la divulgation de l'utilisation du matériel protégé par le droit d'auteur
La loi européenne sur l'intelligence artificielle est retardée, les législateurs n'ayant pas réussi à se mettre d'accord sur un ensemble de propositions de base
La loi européenne sur l'intelligence artificielle peut avoir un effet dissuasif sur les efforts en matière de logiciels libres, avertissent les experts de la Brookings Institution
Elon Musk et un groupe d'experts en IA demandent à tous les laboratoires d'IA d'interrompre la formation de systèmes d'IA plus puissants que le GPT-4, citant des risques pour la société
Une nouvelle lettre ouverte publiée le lundi 17 avril montre comment plusieurs membres du Parlement appellent à la coopération internationale. Il s'agit de mettre en place des garde-fous pour le développement d'outils d'IA qui, selon les experts du secteur, pourraient bientôt devenir les plus dangereux et les plus puissants du marché si des précautions adéquates n'étaient pas prises.
AI is moving very fast and we need to move too. The call from the Future of Life Institute @FLIxrisk to pause the development of very powerful AI for half a year, although unnecessarily alarmist, is another signal we need to focus serious political attention on this issue. pic.twitter.com/Tjrj9k02Yj
— Dragoș Tudorache (@IoanDragosT) April 17, 2023
Cette lettre nous parvient après qu'un grand groupe d'experts en IA ait appelé la nation européenne à établir davantage de règles en matière d'IA qui soient réellement étendues. Ils ont également fait valoir que l'objectif général de la technologie de l'IA pourrait finir par manquer sa cible.
Cette catégorie englobe une large liste d'outils, dont ChatGPT, qui n'ont peut-être pas été conçus en tenant compte du facteur de risque élevé, mais qui pourraient être utilisés dans différents contextes présentant des risques plus importants.
La lettre ouverte au public poursuit en mentionnant que les législateurs se sont mis d'accord sur la manière dont la loi sur l'IA vise à traiter les cas d'IA à haut risque. Mais dans le même temps, ils exigent également des réglementations préliminaires complémentaires pour créer et déployer des systèmes d'IA plus puissants qui pourraient être adoptés pour une série d'objectifs différents.
Les législateurs ont ajouté une référence à une autre lettre publiée récemment, dans laquelle de nombreux milliardaires et scientifiques de premier plan du secteur technologique ont accepté de suspendre la formation à l'IA dans les laboratoires pendant six mois. Il s'agissait d'un système plus puissant que l'actuel modèle technologique GPT-4.
Les législateurs de l'UE ont révélé qu'ils partageaient une grande partie des préoccupations exprimées dans la lettre, car le rythme auquel nous assistons aux progrès de la technologie de l'IA est tout simplement trop alarmant, ce qui justifie l'intervention nécessaire de l'attention politique avant que la situation ne devienne incontrôlable.
Ils se sont même engagés à ce qu'un ensemble de règles soit mis en place dans le cadre de la loi sur l'IA afin de guider le développement de l'IA d'une manière plus sûre et plus fiable. De même, ils souhaitent que des personnalités politiques de premier plan telles que le président américain Biden et la présidente de la Commission européenne Ursula von der Leyen en prennent note et définissent de nouveaux principes pour le contrôle et l'utilisation de l'IA.
Source : Twitter
Et vous ?
Voir aussi
-
mith06Membre expérimentéQuand ils vont se rendre compte qu "l'IA" permet de faire de la surveillance de masse, ils vont renommer ca en "algorithme à réseaux de neurone profond" pour contourner leur propre interdictionles applications et les systèmes qui créent un risque inacceptable, tels que les systèmes d'évaluation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits ;les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation.
Mais pour ces gens tout ce qui n'est pas autorisé devrait être interdit.le 16/06/2023 à 11:34 -
OrthodoxWindowsMembre émériteEncore une étude de greenwashingle 07/02/2024 à 22:16
-
Anselme45Membre extrêmement actifEt comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!le 24/03/2024 à 11:22
-
Jon ShannowMembre extrêmement actifJe n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.
Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.le 10/04/2024 à 8:28 -
MadmacMembre extrêmement actifJe ne sais pas où tu as pris cette idée. Car en pratique ce sont exactement les mêmes batteries. Et je ne parle pas de batterie AA ou AAA rechargeable. Mais de pile plate pour les téléphones. Sauf que maintenant les fils sont soudés alors qu'auparavant, ils étaient reliés avec un connecteur
Ton téléphone est toujours raccordé au réseau, même quand il est fermé. Appel un ami et demande-lui de t'envoyer un texto dans 5 minutes et ferme ton téléphone. Je ne sais pas si c'est à la demande de la CIA ou de la NSA, mais la géo-position est activable à distance.le 21/04/2023 à 1:00 -
Franck ZMembre régulierJ'ai une petite inquiétude qui trotte dans ma tête : les échanges (mails, forums, etc...) risquent-ils d'être aussi inclus (un jour) dans les données d'apprentissage de ces IA ? Idem pour les requêtes faites aux robots/moteurs de recherche ? Il me semble avoir lu que des sociétés comme GMail analysent déjà les mails privés de leurs utilisateurs pour le ciblage publicitaire ; la tentation d'une analyse au profit d'IA génératives va être grande pour eux.
Parce que sinon, on va voir non seulement des oeuvres (finies) pillées par les IA mais aussi celles en cours de réalisation...
Pour fixer un exemple : un écrivain/scénariste qui participe à un forum d'écrivain pour chercher du soutien ou des retours sur son projet, ou qui simplement en discute par mail avec son éditeur pourrait-il voir ses idées utilisées pour les réponses d'une IA avant même que son oeuvre soit achevée et soumise au droit d'auteur ?le 21/04/2023 à 15:44 -
marsupialExpert éminentConcernant les droits fondamentaux et la dignité humaine, rien dans cette loi ne parle de l'accès au travail en concurrence avec l'IA. Je crois qu'il s'agit d'une des principales préoccupations du peuple que l'accès à l'emploi, ou sa conservation, et la peur du grand remplacement. Peut-être un revenu universel en Europe ?le 11/05/2023 à 17:15
-
e-ricMembre expertle 16/05/2023 à 14:17
-
Prox_13Membre éprouvéOui, évidemment. Le gouvernement qui aurait la main-mise sur les modèles d'IA les plus performants/expérimentaux. Qu'est ce qui pourrait mal se passer après tout ?le 25/05/2023 à 12:05
-
Prox_13Membre éprouvéC'est pas précisément ce que dis l'article justement ? Que les entreprises privées doivent ployer à une réglementation européenne ? Et qu'OpenAI refuse de coopérer ?le 25/05/2023 à 16:10