IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La plupart des modèles de fondation ne sont pas conformes à la loi européenne sur l'IA
Selon les chercheurs de l'université Stanford

Le , par Bruno

4PARTAGES

4  0 
Au cours de la dernière décennie, nous avons assisté à une explosion des applications de l'intelligence artificielle. Au cours de cette période, l'intelligence artificielle est passée d'un projet purement académique à une force qui alimente des actions dans une myriade d'industries et qui affecte la vie de millions de personnes chaque jour. Les chercheurs du Centre de recherche sur les modèles de fondation de l’université Stanford examinent la conformité des fournisseurs de modèles de fondation, comme ChatGPT, au projet de loi de l’UE sur l’IA, qui vise à réguler l’IA de manière globale.

Ils ont constaté que les fournisseurs ne respectent pas les exigences de transparence du projet de loi, notamment en ce qui concerne les données, le calcul et le déploiement de leurs modèles. Les chercheurs du Centre de recherche sur les modèles de fondation de l’université Stanford recommandent aux décideurs politiques de renforcer la transparence dans l’écosystème des modèles de fondation, qui ont un impact croissant sur la société.

L’Institut de Stanford pour l’intelligence artificielle centrée sur l’homme (HAI) a lancé le Centre de recherche sur les modèles de fondation (CRFM), une initiative interdisciplinaire qui vise à faire progresser la recherche, le développement et le déploiement de modèles de fondation.

Les modèles de fondation comme ChatGPT ont un impact profond sur la société avec leurs performances impressionnantes, leurs dangers potentiels, leur diffusion rapide, leur adoption massive et leur débat permanent. En même temps, l’Union européenne (UE) finalise sa loi sur l’IA, qui sera la première réglementation mondiale de l’IA. Le projet de loi a été approuvé par le Parlement européen avec 499 voix pour, 28 voix contre et 93 abstentions. Le projet de loi impose des obligations spécifiques aux fournisseurs de modèles de fondation tels qu’OpenAI et Google.

Évaluation de la conformité des fournisseurs de modèles de fondation avec le projet de loi de l'UE sur l'IA


Selon le Centre de recherche sur les modèles de fondation, les fournisseurs de modèles de base divulguent rarement des informations adéquates concernant les données, le calcul et le déploiement de leurs modèles, ainsi que les principales caractéristiques des modèles eux-mêmes. En particulier, les fournisseurs de modèles de base ne respectent généralement pas les projets d'exigences visant à décrire l'utilisation de données de formation protégées par des droits d'auteur, le matériel utilisé et les émissions produites lors de la formation, ainsi que la manière dont ils évaluent et testent les modèles.

Par conséquent, le CRFM recommande aux décideurs politiques de donner la priorité à la transparence, en s'appuyant sur les exigences de la loi sur l'IA. « Notre évaluation démontre qu'il est actuellement possible pour les fournisseurs de modèles de base de se conformer à la loi sur l'IA et que la divulgation des informations relatives au développement, à l'utilisation et aux performances des modèles de base améliorerait la transparence dans l'ensemble de l'écosystème », déclare le CRFM.

Qu'est-ce qu'un modèle de fondation ?

Ces dernières années, les chercheurs ont réussi à construire des systèmes d'IA capables d'apprendre à partir de milliers, voire de millions, d'exemples pour nous aider à mieux comprendre notre monde ou à trouver de nouvelles solutions à des problèmes difficiles. Ces modèles à grande échelle ont donné naissance à des systèmes capables de comprendre ce que nous disons ou écrivons, comme les programmes de traitement et de compréhension du langage naturel que nous utilisons tous les jours, qu'il s'agisse d'assistants numériques ou de programmes de conversion de la parole en texte.

D'autres systèmes, formés sur des éléments tels que l'ensemble des œuvres d'artistes célèbres ou tous les manuels de chimie existants, nous ont permis de construire des modèles génératifs capables de créer de nouvelles œuvres d'art basées sur ces styles, ou de nouvelles idées de composés basées sur l'histoire de la recherche chimique.

Bien que de nombreux nouveaux systèmes d'IA aident à résoudre toutes sortes de problèmes du monde réel, la création et le déploiement de chaque nouveau système nécessitent souvent beaucoup de temps et de ressources. Pour chaque nouvelle application, vous devez vous assurer qu'il existe un vaste ensemble de données bien étiquetées pour la tâche spécifique à laquelle vous souhaitez vous attaquer. Si l'ensemble de données n'existait pas, il faudrait que des personnes passent des centaines ou des milliers d'heures à trouver et à étiqueter des images, des textes ou des graphiques appropriés pour l'ensemble de données.

Le modèle d'IA doit ensuite apprendre à reconnaître tout ce qui se trouve dans l'ensemble de données, puis il peut être appliqué au cas d'utilisation que vous avez, de la reconnaissance du langage à la génération de nouvelles molécules pour la découverte de médicaments. La formation d'un grand modèle de traitement du langage naturel, par exemple, a à peu près la même empreinte carbone que l'utilisation de cinq voitures pendant toute leur durée de vie.

La prochaine vague d'IA vise à remplacer les modèles spécifiques à une tâche qui ont dominé le paysage de l'IA jusqu'à présent. L'avenir est aux modèles formés sur un large ensemble de données non étiquetées qui peuvent être utilisées pour différentes tâches, avec une mise au point minimale. C'est ce que l'on appelle les modèles de fondation, un terme popularisé pour la première fois par l’HAI du Stanford Institute. « Nous avons vu les premières lueurs du potentiel des modèles de fondation dans les mondes de l'imagerie et du langage. Les premiers exemples de modèles, comme GPT-3, BERT ou DALL-E 2, ont montré ce qu'il était possible de faire », IBM.

Ce qui fait de ces nouveaux systèmes des modèles de fondation, c'est que, comme leur nom l'indique, ils peuvent servir de fondation à de nombreuses applications du modèle d'IA. Grâce à l'apprentissage auto-supervisé et à l'apprentissage par transfert, le modèle peut appliquer les informations qu'il a apprises sur une situation à une autre. Bien que la quantité de données soit considérablement plus importante que celle dont une personne moyenne a besoin pour transférer sa compréhension d'une tâche à une autre, le résultat final est relativement similaire : vous apprenez à conduire une voiture, par exemple, et sans trop d'efforts, vous pouvez conduire la plupart des autres voitures - ou même un camion ou un bus.

L’écart entre les modèles de fondation et la loi sur l’IA : pourquoi la transparence est essentielle

Les modèles de fondation sont au cœur du discours mondial sur l'IA : le paradigme technologique émergent a un impact concret et croissant sur l'économie, la politique et la société. Parallèlement, la loi européenne sur l'IA est l'initiative réglementaire la plus importante en matière d'IA dans le monde aujourd'hui. La loi imposera non seulement des exigences en matière d'IA dans l'UE, qui compte 450 millions d'habitants, mais créera également un précédent pour la réglementation de l'IA dans le monde entier (l'effet Bruxelles).

Les décideurs politiques du monde entier s'inspirent déjà de la loi sur l'IA, et les entreprises multinationales pourraient modifier leurs pratiques mondiales afin de maintenir un processus unique de développement de l'IA. La manière dont nous réglementons les modèles de fondation structurera la chaîne d'approvisionnement numérique au sens large et façonnera l'impact sociétal de la technologie.

Les publications de modèles de fondation sont généralement devenues moins transparentes, comme en témoignent les principales publications de ces derniers mois. Les rapports sur le GPT-4 d'OpenAI et le PaLM 2 de Google indiquent ouvertement qu'ils ne font pas état de nombreux aspects pertinents concernant les données et le calcul. Le document sur le GPT-4 indique que « compte tenu du paysage concurrentiel et des implications pour la sécurité des modèles à grande échelle tels que le GPT-4, ce rapport ne contient aucun détail supplémentaire sur l'architecture (y compris la taille du modèle), le matériel, le calcul d'entraînement, la construction de l'ensemble de données, la méthode d'entraînement ou d'autres éléments similaires ».

Selon le CRFM, une transparence suffisante pour satisfaire aux exigences de la loi en matière de données, de calcul et d'autres facteurs devrait être commercialement possible si les fournisseurs de modèles de fondations prennent collectivement des mesures résultant de normes ou de réglementations sectorielles.

La loi sur l'IA est toujours en discussion et sera finalisée lors du prochain dialogue entre la Commission européenne, le Conseil et le Parlement. Les fournisseurs de modèles de fondation ont également des obligations en vertu des dispositions de la loi sur l'IA qui ne concernent pas uniquement les modèles de base, par exemple lorsque leurs modèles de base sont intégrés dans des systèmes d'IA à haut risque. Par conséquent, les évaluations pourraient diverger de la conformité des fournisseurs de modèles de fondation à la version finale de la loi sur l'IA.

L'adoption et l'application de la loi européenne sur l'IA entraîneront des changements positifs importants dans l'écosystème des modèles de fondation. Selon le CRFM, le respect par les fournisseurs de modèles de fondation des exigences relatives aux droits d'auteur, à l'énergie, aux risques et à l'évaluation est particulièrement faible, ce qui indique les domaines dans lesquels les fournisseurs de modèles peuvent s'améliorer.

Sources : CRFM

Et vous ?

Les conclusions du CRFM sur les modèles de fondation sont-elles pertinentes ?

Selon vous, quels sont les avantages et les inconvénients de la transparence comme priorité pour responsabiliser les fournisseurs de modèles de fondation ?

À votre avis, quels sont les risques et les opportunités liés à la réglementation des modèles de fondation au niveau mondial ?

Comment les fournisseurs de modèles de fondation peuvent-ils s’adapter aux exigences du projet de loi de l’UE sur l’IA tout en préservant leur innovation et leur compétitivité ?

Voir aussi :

L'UE vote pour interdire l'IA dans la surveillance biométrique et exiger la divulgation des systèmes d'IA, le projet de loi de l'UE sur l'IA se durcit, mais reste ouvert à la négociation

Un groupe de consommateurs demandent à l'UE d'enquêter d'urgence sur les risques liés à l'IA générative et d'appliquer la législation existante pour protéger les consommateurs

Data Act : l'UE s'accorde sur des règles de protection des données face aux grandes enseignes du numérique, les entreprises les critiquent et un groupe paneuropéen de consommateurs affiche sa déception

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 03/06/2024 à 22:27
Citation Envoyé par Mathis Lucas Voir le message
Que pensez-vous du lobbying intense des entreprises d'IA pour contrecarrer les initiatives visant à réglementer l'IA ?
On le voit déjà au niveau des news sur tous les sites et tous les canaux. On essaye de nous vendre de force un truc assez moyen, comme LA panacée.

En général, plus il y a de pub pour un produit, et plus il y a de chances qu'ils soit très mauvais.

Là, on a en plus des lobbyistes qui illustrent le capitalisme non-régulé dans toute sa splendeur, ou comment les plus riches sont capables de faire plier des gouvernements, par la corruption légale qu'est le lobbyisme. On le voit au niveau des entreprises et des communes ici: des avocats de l'IA (et juste avant c'était ceux du cloud des GAFAM) qui organisent des évènements avec les repas, parfois des cadeaux, des ateliers qui sont de la pub grossièrement déguisée, etc.

Bref, rien de neuf: le commercial qui fait sa danse du ventre, et le pigeon qui tombe dans le panneau.
6  0 
Avatar de Pierre Louis Chevalier
Expert éminent sénior https://www.developpez.com
Le 05/06/2024 à 15:55
Citation Envoyé par Anselme45 Voir le message
Pour s'en convaincre, il suffit de lire les news de ce site: La majorité des news traitent maintenant de l'IA... Apparemment les autres technologies numériques ne sont plus dignes d'intérêt
C'est archifaux. Oui il y a sur developpez un tas de news sur l'IA mais c'est parfaitement normal, ça nous concerne, aussi bien les développeurs que les autres informaticiens.

Il n'en reste pas moins que developpez est quasiment le seul et unique site francophone qui passe aussi un tas de news sur l'actualité de la programmation, les nouvelles versions des langages, les nouvelles sorties des EDI (Jetbrains, Microsoft, Embarcadero, ...) , etc. Et c'est surtout devenu le "Médiapart/Canard enchainé" de l'informatique avec toutes les news à scandales sur HP, Microsoft, Google, etc. Exemple l'énorme scandale sur les imprimantes HP avec des centaines de commentaires, et quel rapport avec l'IA ? aucun... D 'ailleurs toi même tu viens de répondre à un sujet à scandale n'ayant rien à voir avec l'IA, à savoir : Google peut garder votre téléphone si vous l’envoyez en réparation avec des pièces qui ne sont pas d’origine

Regarde les rubriques programmation et EDI au lieu de dire n'importe quoi, et il y a toujours une colonne droite avec des tutoriels programmation et IT Pro, des articles gratuits alors que c'est devenu payant ailleurs (Udemy, Elephorm, etc). Developpez est devenu le meilleur site sur francophonie sur l'IA, mais il reste toujours le meilleur site pour les développeurs et même l'IT Pro, c'est bien simple il n'y en a pas d'autre de valables....
6  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 10/04/2024 à 8:28
Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.
5  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 07/02/2024 à 22:16
Encore une étude de greenwashing
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/03/2024 à 11:22
Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!
4  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 05/06/2024 à 11:19
Citation Envoyé par Anselme45 Voir le message
La majorité des news traitent maintenant de l'IA...
C'est de la faute de l'industrie et non pas des rédacteurs d'actualités.
C'est comme avec Elon Musk, les médias écrivent un article par jour à son sujet donc ça atterrît ici aussi.
Les visiteurs ont le choix de lire les articles qu'ils veulent, il est possible d'ignorer toutes les actualités liées à l'IA si on le souhaite.

L'IA sera peut-être puissante dans 20 ans, j'espère que dans ces 20 ans l'IA ne restera pas le sujet principal dans le monde de la technologie.
Beaucoup de gens doivent être lassés par toutes ces actualités en rapport avec l'IA, les médias mainstream en parlent beaucoup.
Mais après ils ont peut-être raison d'en parler, l'IA pourrait devenir quelque chose d'extrêmement dangereux et avoir des conséquences dramatique sur le monde. Elle va peut-être vraiment prendre le travail de beaucoup de gens, qui vont se retrouver dans la pauvreté, parce qu'ils ne retrouveront plus de travail et n'auront plus de revenu.

Citation Envoyé par Mathis Lucas Voir le message
Pour ce faire, elles ont embauché une importante armée de lobbyistes chargés d'influencer les décideurs politiques et les gouvernements à travers le monde afin qu'ils adoptent des règles "laxistes" au détriment de l'intérêt général. Ils ont déjà réussi à court-circuiter le vote de nombreuses lois sur l'IA ou à façonner certaines législations.
C'est dingue que ces lobbystes arrivent à corrompre autant de décideurs politiques et de gouvernements à travers le monde.

On pourrait presque se dire que les politiciens sont tous pourris.
3  0 
Avatar de mach1974
Membre averti https://www.developpez.com
Le 13/12/2023 à 16:20
Bonjour,
Un peu de rationalisation que diable. On reste sur de l'ia qui calcule les corrélations et en tire des arbres causaux sans décrire les mécaniques même avec LIME et SHAPE, alors que l'analyse grammaticale avec les COI et COD permet de déterminer le sujet et le complément , ce qui permet une logique de prédicat avec le respect des 3 lois d'ASIMOV. C'est un cauchemar. On va voir revenir le temps des sorciers même si Athur C Clarke parle de magie comme la techno qui disparaît. On va élever l'ordinateur au rang de Dieu dans la prochaine étape . C'est bien la peine de faire du modèle checking dans la norme ISO179 pour l'aéronautique ou dans le ferroviaire ....
2  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 10/04/2024 à 8:01
Citation Envoyé par Jade Emy Voir le message
Il est essentiel de se pencher sur le type d'impact environnemental que l'IA peut finir par avoir. Cependant, il s'avère que l'IA pourrait en fait produire moins d'émissions de carbone que les humains, ce qui la rendrait plus durable. L'IA émet des centaines de fois moins de gaz à effet de serre que l'homme lorsqu'il s'agit d'écrire et de créer des images.
C'est une analyse intéressante mais est ce que ça veut dire qu'utiliser une IA émet moins de carbone qu'utiliser une personne?
Non, pour une raison simple:
Quand la personne travaille et pas l'IA, l'IA n'émet rien
Quand l'IA travaille et pas la personne, la personne émet toujours.
Donc il faudrait comparer le surplus d'émission de la personne quand elle travaille à l'IA.
Les autres facteurs sont nombreux :
L'IA produit (probablement) peu de carbone quand elle travaille parce qu'elle est plus rapide que l'homme mais combien émet son apprentissage?
L'IA nécessite une revue de son travail plus importante que la personne donc combien émet la différence de revue?
Combien d'IA différente faut il pour remplacer toutes les taches d'une personne?
Et je n'ai pas encore parlé de l'apport social d'une personne...

Pensez-vous que cette étude est crédible ou pertinente ?
L'étude en tant que telle à l'air crédible (faite de façon honnête et rigoureuse) par contre le but de celle ci me parait beaucoup moins pertinent.
Quelle conclusion tirer? Qu'il faut faire travailler les IA plutôt que les personnes pour l'édition? Ce n'est pas ce que disent les chercheurs, c'est pourtant ce que nous lisons.
Qui a financer cette étude? Dans quel but? Avec ces réponses nous aurons peut être une clarification de sa pertinence.
On sait que l'un des auteur détient des actions chez NVIDIA mais je n'ai rien trouvé chez le financeur.
Quel est votre avis sur le sujet ?
L'IA n'a rien d'écologique parce qu'elle ajoute de la production de carbone à la production humaine, attaquer la question par cet angle est absurde. (A moins que l'on décide de "faire disparaitre" les personnes qui deviennent "inutiles" mais on dérive vers des gros problèmes éthiques).
Par contre l'IA a d'autres avantages qui méritent d'être étudiés.

Des gens essayent d'aborder les sujets de façon "rationnelle" en ce moment pour transformer des solutions plus ou moins absurdes en bon sens.
La Science n'apporte pas toujours les bonnes réponses aux problèmes parce qu'elle ignore les sciences humaines ou l'éthique.
Pourtant il me semble qu'Asimov nous avait déjà prévenu que cette méthode ne fonctionnait pas.
2  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 04/06/2024 à 0:31
Citation Envoyé par kain_tn Voir le message
On le voit déjà au niveau des news sur tous les sites et tous les canaux. On essaye de nous vendre de force un truc assez moyen, comme LA panacée.

En général, plus il y a de pub pour un produit, et plus il y a de chances qu'ils soit très mauvais.

Là, on a en plus des lobbyistes qui illustrent le capitalisme non-régulé dans toute sa splendeur, ou comment les plus riches sont capables de faire plier des gouvernements, par la corruption légale qu'est le lobbyisme. On le voit au niveau des entreprises et des communes ici: des avocats de l'IA (et juste avant c'était ceux du cloud des GAFAM) qui organisent des évènements avec les repas, parfois des cadeaux, des ateliers qui sont de la pub grossièrement déguisée, etc.

Bref, rien de neuf: le commercial qui fait sa danse du ventre, et le pigeon qui tombe dans le panneau.
Il y a eu le métavers dernièrement, mais ça à foiré (comme tout le monde l'avais prévu ici).
2  0 
Avatar de Fluxgraveon
Membre régulier https://www.developpez.com
Le 04/06/2024 à 10:56
Qu'y a-t-il de plus effrayant que l'IA incontrôlée ?
Les humains
2  0