L'organisation allemande à but non lucratif LAION (Large-Scale Artificial Intelligence Open Network) a lancé une pétition appelant la communauté internationale, en particulier l'UE, à investir dans une grande infrastructure internationale de supercalculateurs financée par des fonds publics et équipée de 100 000 accélérateurs d'IA à la pointe de la technologie afin de former des modèles d'IA de fondation open source. L'initiative vise à garantir l'indépendance technologique, à promouvoir l'innovation et la sécurité mondiales et à préserver les principes démocratiques pour les générations futures. Elle s'oppose à une précédente pétition demandant une pause dans la recherche sur l'IA.
La sortie de GPT-4, la dernière mouture du grand modèle de langage GPT (Generative Pre-trained Transformer) d'OpenAI, a provoqué une vive réaction dans l'industrie en raison des capacités du modèle d'IA et des impacts qu'il pourrait avoir sur les emplois, l'Internet et la société en elle-même. L'une des réactions les plus marquantes est une pétition, signée par Elon Musk et des centaines d'autres experts de l'industrie, demandant un arrêt d'urgence dans le développement de tout nouveau modèle d'IA semblable ou plus puissant que GPT-4 afin de réfléchir sur les implications de la technologie et prendre les précautions adéquates avant de poursuivre la recherche.
Cependant, dans une autre pétition lancée fin mars, le collectif LAION s'oppose vivement à cette idée. LAION affirme qu'il faut accélérer la recherche sur l'IA et la création de nouveaux modèles d'IA plutôt que faire une pause comme le souhaitent Musk et ses pairs. Le groupe propose une marche à suivre qui, selon lui, permettra d'aboutir à une technologie sûre et bénéfique à tout le monde. LAION invite en effet l'UE à créer une infrastructure internationale de superordinateurs financée par des fonds publics et équipée de 100 000 accélérateurs d'IA de pointe à haute performance (GPU ou ASIC) pour former des modèles d'IA de fondation open source.
Le groupe invite les États-Unis, le Royaume-Uni, le Canada et l'Australie à collaborer sur le projet. LAION compare l'initiative au CERN suisse et affirme qu'il permettra de démocratiser la recherche sur l'IA et éviter qu'une poignée d'entreprises privées contrôlent le secteur. « Nous devons agir rapidement pour garantir l'indépendance des universités et des institutions gouvernementales face au monopole technologique des grandes entreprises telles que Microsoft, OpenAI et Google. Les technologies telles que GPT-4 sont trop puissantes et importantes pour être contrôlées exclusivement par un petit nombre », explique LAION dans la pétition lancée le 29 mars.
Le cluster de calcul international commun sera exploité par des experts de la communauté de l'apprentissage automatique et de la recherche sur les supercalculateurs et supervisé par des institutions démocratiquement élues dans les pays participants. Selon LAION, cette initiative ambitieuse fournira une plateforme permettant aux chercheurs et aux institutions du monde entier d'accéder à des modèles d'IA avancés, tels que le GPT-4, et de les perfectionner, en exploitant leurs capacités pour le bien de tous. Le collectif estime qu'elle devrait en outre permettre d'enrichir la recherche universitaire, améliorer la transparence et garantir la sécurité des données.
Des membres éminents de la communauté des chercheurs en IA soutiennent cet appel, comme le physicien théorique Surya Ganguli (Stanford), Jürgen Schmidhuber (directeur du laboratoire suisse d'IA IDSIA), le professeur d'IA de Darmstadt Kristian Kersting (codirecteur de hessian.AI), Thomas Wolf (fondateur de Hugging Face), Konrad Koerding (Université de Pennsylvanie) et Joscha Bach (scientifique cognitif et chercheur en IA chez Intel). Le responsable de la stratégie de Stability AI David Ha (connu sur la scène de l'IA sous le pseudonyme de "hardmaru" et Robin Rombach (auteur principal de Stable Diffusion) figurent également parmi les partisans.
D'autres critiquent l'initiative et posent la question de savoir comment LAION empêchera les acteurs malveillants d'utiliser les modèles d'IA open source à mauvais escient. « Le problème sera les deepfakes. Si ces modèles n'étaient utilisés que pour créer des objets animés en 2D, ce serait une chose. La capacité à créer des deepfakes convaincants remettra en question toute la perception de la réalité. À mesure que les gens utiliseront de plus en plus ChatGPT, ils feront confiance aux informations qu'il contient et seront plus sensibles aux infox. Des gens se font déjà escroquer par des deepfakes de leurs proches appelant à l'aide », rappelle un critique.
En s'opposant à la proposition de Musk et ses pairs selon laquelle il faut décélérer la recherche sur l'IA afin de garantir la sécurité et le progrès, LAION affirme que cela constitue une approche malavisée qui pourrait être préjudiciable à ces deux objectifs. « Elle pourrait en effet créer un terrain propice à des entreprises ou à des États obscurs et potentiellement malveillants pour réaliser des avancées dans l'obscurité, tout en réduisant la capacité de la communauté de recherche publique à examiner minutieusement les aspects de sécurité des systèmes d'IA avancés », explique le groupe, suggérant que c'est la dernière chose dont le monde a besoin en ce moment.
« La création de laboratoires de sécurité de l'IA transparents et ouverts qui emploient des experts en sécurité de l'IA éligibles, disposent de ressources informatiques correspondantes financées par des fonds publics et agissent conformément aux réglementations émises par les institutions démocratiques couvrira l'aspect de la sécurité sans freiner les progrès. En adoptant ce cadre coopératif, nous pouvons simultanément assurer le progrès et le développement responsable de la technologie de l'IA, en sauvegardant le bien-être de notre société et l'intégrité des valeurs démocratiques », indique la pétition qui a déjà recueilli 2 541 signatures.
Cela représente 25,41 % de l'objectif de 10 000 signatures. La plupart des signataires viennent des États-Unis et d'Allemagne, et environ 1 000 de l'UE. La collecte devrait se poursuivre pendant au moins deux mois encore. LAION est engagée dans la publication de modèles d'IA, d'ensembles de données et de codes sources de systèmes d'IA. Il a été fondé en Allemagne au cours de l'été 2021. Les membres fondateurs viennent du monde entier et travaillent sur les projets à distance. Le groupe est connu pour l'ensemble de données LAION-5B, qui contient des liens vers des images utilisées pour entraîner de nombreux modèles d'IA, tels que Stable Diffusion et Imagen.
L'une des critiques formulées à l'encontre de LAION est que les liens vers les jeux de données renvoient parfois à des données privées ou protégées par des droits d'auteur qui ne sont pas destinées à l'apprentissage de l'IA.
Source : pétition de l'association LAION
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de la proposition du groupe LAION ?
Cette proposition est-elle viable ? Pensez-vous que l'UE va s'y intéresser ?
Selon vous, quels seraient les avantages pour l'UE d'investir dans un tel projet ?
Cette initiative prend-elle en compte tous les risques liés aux modèles d'IA comme le prétend LAION ?
Voir aussi
Stability AI annonce la version 2.0 de Stable Diffusion, le modèle d'IA de diffusion d'image, il améliore le modèle texte-image OpenCLIP et apporte le modèle profondeur-image
OpenAI publie ses intentions dans le domaine de la sécurité en Intelligence artificielle. Cela sera-t'il suffisant ?
OpenAI lance GPT-4, une IA multimodale que l'entreprise affirme être à la pointe de la technologie, il serait 82 % moins susceptible d'être trompé par une injection d'invite que GPT-3.5
Une pétition appelle l'UE à investir dans une infrastructure de supercalculateurs et équipée de 100 000 accélérateurs d'IA pour former des modèles d'IA open source
Et démocratiser la recherche en IA
Une pétition appelle l'UE à investir dans une infrastructure de supercalculateurs et équipée de 100 000 accélérateurs d'IA pour former des modèles d'IA open source
Et démocratiser la recherche en IA
Le , par Bill Fassinou
Une erreur dans cette actualité ? Signalez-nous-la !