IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

ChatGPT : le PDG d'OpenAI menace de quitter l'Europe à cause du projet de loi AI Act qu'il estime trop strict
Après avoir déclaré au Congrès US qu'il était pour une réglementation de l'IA

Le , par Stéphane le calme

1PARTAGES

8  0 
Le PDG d'OpenAI, Sam Altman, a déclaré mercredi que le fabricant de ChatGPT pourrait envisager de quitter l'Europe s'il ne pouvait pas se conformer aux réglementations à venir sur l'intelligence artificielle (IA) de l'Union européenne. L'UE travaille sur ce qui pourrait être le premier ensemble de règles à l'échelle mondiale pour régir l'IA. Dans le cadre du projet, les entreprises déployant des outils d'IA génératifs, tels que ChatGPT, devront divulguer tout matériel protégé par le droit d'auteur utilisé pour développer leurs systèmes. Elles devront également garantir la sécurité et la fiabilité de leurs systèmes et respecter les droits fondamentaux des utilisateurs.

Plus tôt ce mois-ci, les législateurs européens se sont rapprochés de l'adoption de nouvelles règles régissant les outils d'intelligence artificielle tels que ChatGPT, à la suite d'un vote serré où ils ont convenu d'un projet de loi plus strict.

La loi de l'UE sur l'intelligence artificielle (AI Act) a été initialement proposée en avril 2021 pour faire face à l'influence grandissante de l'IA dans notre vie quotidienne. Les règles régiraient les applications de l'IA en fonction des risques perçus, et seraient effectivement les premières lois axées sur l'IA introduites par un organisme de réglementation majeur. Ce projet de loi vise à établir la norme pour l’IA avant la Chine et les États-Unis, alors que l’utilisation croissante de la technologie a suscité des craintes de pertes d’emplois, de désinformation et d’atteintes aux droits d’auteur.

Sam Altman se dit favorable à une réglementation plus stricte...

Il y a quelques jours, le patron de ChatGPT a comparu devant le Congrès pour mettre en garde contre le « dommage important pour le monde » que ces plates-formes de haute technologie peuvent avoir si leur supervision tourne mal. Altman a déclaré lors d'une audience au Capitol Hill devant le comité sénatorial sur la vie privée, la technologie et la loi: « Si cette technologie tourne mal, elle peut mal tourner et nous voulons en parler. Nous voulons travailler avec le gouvernement pour empêcher que cela ne se produise ».

Il a fait cette déclaration devant le Congrès alors que les législateurs américains examinent de plus en plus les technologies de l'IA comme le très populaire ChatGPT d'Altman pour un usage personnel et sur le lieu de travail.

Il a assuré aux législateurs américains qu'il était favorable à une réglementation plus stricte pour prévenir les « méfaits » de l'IA, en particulier de l'IA générative. « Ma pire crainte est que nous - l'industrie - causions des dommages importants au monde. Je pense que si cette technologie va mal, elle peut aller très mal et nous voulons nous exprimer à ce sujet et travailler avec le gouvernement. Nous pensons qu'une réglementation gouvernementale sera essentielle pour atténuer les risques liés à des modèles de plus en plus puissants », a déclaré Altman.

Bien sûr, il n'a pas manqué de vanter les potentiels des systèmes d'IA développés par OpenAI et d'autres.


Altman a déclaré qu'il ne pensait pas que des exigences lourdes devraient s'appliquer aux entreprises et aux chercheurs dont les modèles sont beaucoup moins avancés que ceux d'OpenAI. Ses propositions peuvent se résumer comme suit :
  • créer une nouvelle agence gouvernementale chargée de délivrer des licences pour les grands modèles d'IA, et l'habiliter à retirer ces licences aux entreprises dont les modèles ne sont pas conformes aux normes gouvernementales ;
  • créer un ensemble de normes de sécurité pour les modèles d'IA, y compris des évaluations de leurs capacités dangereuses. Par exemple, les modèles devraient passer certains tests de sécurité, notamment pour savoir s'ils peuvent "s'autoreproduire" et "s'exfiltrer dans la nature", c'est-à-dire devenir des voyous, et commencer à agir de leur propre chef ;
  • exiger des audits indépendants, réalisés par des experts indépendants, des performances des modèles en fonction de divers paramètres.


Les propositions d'Altman ont fortement été critiquées, de nombreux critiques affirmant qu'elles sont insuffisantes et ne couvrent pas toutes les préoccupations liées à ces systèmes d'IA. Pour être plus clair, parmi les propositions d'Altman, il n'est pas question d'exiger que les modèles d'IA soient transparents en ce qui concerne leurs données d'apprentissage, comme l'a demandé son collègue Gary Marcus, ou d'interdire leur apprentissage sur des œuvres protégées par des droits d'auteur, comme l'a suggéré le sénateur Marsha Blackburn (R-Tenn.). Il s'agit de deux points essentiels qui sont actuellement sujets à des débats intenses dans la communauté.

Certains vont même jusqu'à affirmer que les appels d'Altman à une réglementation de l'IA sont une supercherie pour freiner les nouveaux acteurs du secteur. « Une fois que vous êtes établi dans un nouveau domaine, vous voulez ajouter autant d'obstacles que possible aux autres qui essaient de s'établir », a écrit un critique. Un autre a également écrit : « je travaille dans le domaine du calcul intensif et de la recherche sur l'IA. Les systèmes d'IA connus sont actuellement de très bons algorithmes de recherche et des manipulateurs d'images et de sons. Le message qu'Altman veut faire passer est le suivant : "fermez la porte ! Vous allez laisser entrer toute la racaille !" ».


...mais s'oppose au projet de loi européen tel qu'il est formulé

L'offensive de charme à l'étranger du PDG d'OpenAI, Sam Altman, poursuit le train de battage médiatique sur l'IA qu'il a commencé avec ses récents entretiens devant le Congrès américain. Bien que, contrairement aux États-Unis favorables à l'IA, Altman a menacé d'emmener ses gros jouets technologiques à l'autre bout du bac à sable si les législateurs européens ne sont pas disposés à respecter ses règles.

Altman a été en mouvement, de Lagos, au Nigeria, à toute l'Europe. Enfin, à Londres, au Royaume-Uni, il a esquivé quelques manifestants pour dialoguer avec les grands noms de la technologie, les entreprises et les décideurs politiques à propos de ses modèles d'IA. Son discours principal a été de promouvoir son ChatGPT basé sur un grand modèle de langage et de soutenir les politiques réglementaires pro-IA. Lors d'une table ronde organisée par l'University College de Londres, Altman aurait déclaré que même si OpenAI « allait essayer de se conformer » aux réglementations de l'UE avec la loi sur l'IA, il était contrarié par la façon dont l'organisme européen définissait les systèmes « à haut risque ».

La loi sur l'IA de l'UE est l'une des lois proposées par la Commission européenne en 2021 qui classerait l'IA en trois catégories de risque. Certaines IA présentent un « risque inacceptable » comme les systèmes de notation sociale, l'IA d'ingénierie sociale manipulatrice, ou vraiment tout ce qui « violerait les droits fondamentaux ». À l'extrémité inférieure, un « système d'IA à haut risque » dépend de son utilisation prévue, mais il devrait se conformer à des normes générales de transparence et de surveillance.

Altman a déclaré que selon la manière dont le projet de loi est actuellement rédigé, ChatGPT et le grand modèle de langage GPT-4 pourraient être désignés à haut risque. Cela obligerait l'entreprise à se conformer à certaines exigences. Selon Time, le PDG d'OpenAI a déclaré : « Si nous pouvons nous conformer, nous le ferons, et si nous ne pouvons pas, nous cesserons nos activités… Nous essaierons. Mais il y a des limites techniques à ce qui est possible ».

En réalité, la loi a été conçue pour lutter contre les utilisations potentielles de l'IA comme le système de crédit social chinois et la reconnaissance faciale. Puis vinrent OpenAI et d'autres startups dans le domaine de l'IA, d'abord avec la génération d'images d'IA de diffusion, puis avec le très populaire ChatGPT basé sur un grand modèle de langage. L'UE a rédigé de nouvelles dispositions à la loi en décembre qui imposeraient des contrôles de sécurité et une gestion des risques sur les « modèles fondamentaux » tels que les LLM qui exécutent les chatbots d'IA. Une commission du Parlement européen a approuvé ces modifications au début du mois.

L'UE a été plus disposée à examiner OpenAI que les États-Unis. Le comité européen de la protection des données de l'UE a déclaré qu'il surveillait ChatGPT pour s'assurer qu'il respectait ses lois sur la confidentialité. Bien sûr, la loi sur l'IA n'est pas gravée dans le marbre et le langage peut changer, ce qui est probablement une autre raison de sa tournée mondiale.

À Londres, Altman a réitéré certains des mêmes points de discussion qu'il a donnés devant le Congrès américain. Il a notamment fait savoir qu'il était inquiet face aux dangers de l'IA, mais qu'il y avait aussi de nombreux avantages potentiels. Le PDG d'OpenAI a déclaré aux législateurs américains qu'il était favorable à une réglementation qui pourrait même inclure de nouvelles exigences de sécurité ou une agence gouvernementale pour tester les produits et assurer la conformité réglementaire. Il a appelé à une certaine régulation « entre l'approche européenne traditionnelle et l'approche américaine traditionnelle », quoi que cela signifie.

Il a déclaré à son auditoire londonien qu'il ne voulait rien qui puisse nuire aux petites entreprises ou au mouvement de l'IA open source. Cela ne veut pas dire que toute nouvelle réglementation bénéficierait intrinsèquement à OpenAI. Cependant, de nouveaux contrôles de conformité rendraient également plus coûteux le développement de nouveaux modèles d'IA à partir de zéro, donnant à l'entreprise une longueur d'avance dans la course effrénée à l'IA en cours.

Il y a eu quelques pays qui ont déjà interdit ChatGPT. L'Italie a interdit le service en mars puis s'est ravisée, estimant qu'OpenAI a donné aux utilisateurs un meilleur accès aux contrôles de confidentialité. Peut-être qu'OpenAI peut continuer à faire suffisamment de petites améliorations pour rendre les gouvernements du monde heureux. Bien sûr, tant qu'il peut contenir ses plus de 100 millions d'utilisateurs actifs de ChatGPT.

Source : PDG d'OpenAI

Et vous ?

Que pensez-vous de la possibilité que OpenAI quitte l’Europe?
Quels sont les avantages et les inconvénients d’une réglementation stricte de l’IA?
Comment pensez-vous que l’IA va évoluer dans les prochaines années?
Quels sont les domaines d’application de l’IA qui vous intéressent le plus?
Quelles sont les mesures que vous prenez pour vous protéger des risques liés à l’IA?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Pierre Louis Chevalier
Expert éminent sénior https://www.developpez.com
Le 05/06/2024 à 15:55
Citation Envoyé par Anselme45 Voir le message
Pour s'en convaincre, il suffit de lire les news de ce site: La majorité des news traitent maintenant de l'IA... Apparemment les autres technologies numériques ne sont plus dignes d'intérêt
C'est archifaux. Oui il y a sur developpez un tas de news sur l'IA mais c'est parfaitement normal, ça nous concerne, aussi bien les développeurs que les autres informaticiens.

Il n'en reste pas moins que developpez est quasiment le seul et unique site francophone qui passe aussi un tas de news sur l'actualité de la programmation, les nouvelles versions des langages, les nouvelles sorties des EDI (Jetbrains, Microsoft, Embarcadero, ...) , etc. Et c'est surtout devenu le "Médiapart/Canard enchainé" de l'informatique avec toutes les news à scandales sur HP, Microsoft, Google, etc. Exemple l'énorme scandale sur les imprimantes HP avec des centaines de commentaires, et quel rapport avec l'IA ? aucun... D 'ailleurs toi même tu viens de répondre à un sujet à scandale n'ayant rien à voir avec l'IA, à savoir : Google peut garder votre téléphone si vous l’envoyez en réparation avec des pièces qui ne sont pas d’origine

Regarde les rubriques programmation et EDI au lieu de dire n'importe quoi, et il y a toujours une colonne droite avec des tutoriels programmation et IT Pro, des articles gratuits alors que c'est devenu payant ailleurs (Udemy, Elephorm, etc). Developpez est devenu le meilleur site sur francophonie sur l'IA, mais il reste toujours le meilleur site pour les développeurs et même l'IT Pro, c'est bien simple il n'y en a pas d'autre de valables....
7  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 03/06/2024 à 22:27
Citation Envoyé par Mathis Lucas Voir le message
Que pensez-vous du lobbying intense des entreprises d'IA pour contrecarrer les initiatives visant à réglementer l'IA ?
On le voit déjà au niveau des news sur tous les sites et tous les canaux. On essaye de nous vendre de force un truc assez moyen, comme LA panacée.

En général, plus il y a de pub pour un produit, et plus il y a de chances qu'ils soit très mauvais.

Là, on a en plus des lobbyistes qui illustrent le capitalisme non-régulé dans toute sa splendeur, ou comment les plus riches sont capables de faire plier des gouvernements, par la corruption légale qu'est le lobbyisme. On le voit au niveau des entreprises et des communes ici: des avocats de l'IA (et juste avant c'était ceux du cloud des GAFAM) qui organisent des évènements avec les repas, parfois des cadeaux, des ateliers qui sont de la pub grossièrement déguisée, etc.

Bref, rien de neuf: le commercial qui fait sa danse du ventre, et le pigeon qui tombe dans le panneau.
6  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 10/04/2024 à 8:28
Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.
5  0 
Avatar de mith06
Membre expérimenté https://www.developpez.com
Le 16/06/2023 à 11:34
Quand ils vont se rendre compte qu "l'IA" permet de faire de la surveillance de masse, ils vont renommer ca en "algorithme à réseaux de neurone profond" pour contourner leur propre interdiction

les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes d'évaluation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits ;
Le modèle Chinois c'est leur rêve....

les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation.
Normalement tout c'est qui n'est pas interdit est autorisé.
Mais pour ces gens tout ce qui n'est pas autorisé devrait être interdit.
5  1 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 07/02/2024 à 22:16
Encore une étude de greenwashing
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/03/2024 à 11:22
Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!
4  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 05/06/2024 à 11:19
Citation Envoyé par Anselme45 Voir le message
La majorité des news traitent maintenant de l'IA...
C'est de la faute de l'industrie et non pas des rédacteurs d'actualités.
C'est comme avec Elon Musk, les médias écrivent un article par jour à son sujet donc ça atterrît ici aussi.
Les visiteurs ont le choix de lire les articles qu'ils veulent, il est possible d'ignorer toutes les actualités liées à l'IA si on le souhaite.

L'IA sera peut-être puissante dans 20 ans, j'espère que dans ces 20 ans l'IA ne restera pas le sujet principal dans le monde de la technologie.
Beaucoup de gens doivent être lassés par toutes ces actualités en rapport avec l'IA, les médias mainstream en parlent beaucoup.
Mais après ils ont peut-être raison d'en parler, l'IA pourrait devenir quelque chose d'extrêmement dangereux et avoir des conséquences dramatique sur le monde. Elle va peut-être vraiment prendre le travail de beaucoup de gens, qui vont se retrouver dans la pauvreté, parce qu'ils ne retrouveront plus de travail et n'auront plus de revenu.

Citation Envoyé par Mathis Lucas Voir le message
Pour ce faire, elles ont embauché une importante armée de lobbyistes chargés d'influencer les décideurs politiques et les gouvernements à travers le monde afin qu'ils adoptent des règles "laxistes" au détriment de l'intérêt général. Ils ont déjà réussi à court-circuiter le vote de nombreuses lois sur l'IA ou à façonner certaines législations.
C'est dingue que ces lobbystes arrivent à corrompre autant de décideurs politiques et de gouvernements à travers le monde.

On pourrait presque se dire que les politiciens sont tous pourris.
4  0 
Avatar de
https://www.developpez.com
Le 27/10/2024 à 9:59
L'enfer normatif européens a déjà réussi à laminer l'industrie et l'agriculture voilà qu'il s'attaque maintenant à la tech (dont l'IA).
Pour commencer à "Entreprendre" il faut désormais avoir les moyens de se doter d'une armée de juriste et d'avocat, sans parler des taxes et impôts. Étouffant !

Je comprend pas qu'on ne commence pas à faire de la prévention dans les écoles concernant l'IA ? (Une IA peut raconter n'importe quoi, et ça sera toujours le cas !)
Introduire les élèves dès le plus jeune âge à l'esprit critique et à la compréhension de ce qu'est l'IA n'est-il pas la meilleur solution ?
4  0 
Avatar de Prox_13
Membre éprouvé https://www.developpez.com
Le 25/05/2023 à 12:05
Citation Envoyé par Stéphane le calme Voir le message
Le PDG d'OpenAI a déclaré aux législateurs américains qu'il était favorable à une réglementation qui pourrait même inclure de nouvelles exigences de sécurité ou une agence gouvernementale pour tester les produits et assurer la conformité réglementaire.
Oui, évidemment. Le gouvernement qui aurait la main-mise sur les modèles d'IA les plus performants/expérimentaux. Qu'est ce qui pourrait mal se passer après tout ?
3  0 
Avatar de Prox_13
Membre éprouvé https://www.developpez.com
Le 25/05/2023 à 16:10
Citation Envoyé par walfrat Voir le message
Et qu'est ce qui pourrait se passer si a la place du gouvernement, ce sont des entreprises privées sans aucune régulation ? Qu'est ce qui pourrait mail se passer après tout
C'est pas précisément ce que dis l'article justement ? Que les entreprises privées doivent ployer à une réglementation européenne ? Et qu'OpenAI refuse de coopérer ?
3  0