Un nouveau rapport indique que Meta a dissous la division "Responsible AI" (Meta RIA), chargée de développer une IA responsable, dans le cadre d'une restructuration. Certains membres de l'équipe Meta RIA auraient été transférés vers des rôles au sein de l'équipe des produits d'IA générative de la société, et d'autres auraient rejoints l'équipe de l'infrastructure de l'IA. Cette décision suscite quelques interrogations, car à travers l'équipe Meta RIA, l'entreprise s'était engagée à développer une IA responsable et centrée sur l'homme. Elle fait également suite à une série de licenciements et de changements dans la répartition des équipes au sein de l'entreprise cette année.
Après une transition ratée vers une entreprise de métavers, Meta a finalement redirigé ses efforts vers le développement de l'IA. Le géant de réseaux sociaux a investi massivement dans l'IA générative ces derniers mois et considère cette technologie comme un domaine clé d'innovation et de croissance. Dans ce domaine, Meta est en concurrence avec des entreprises telles qu'OpenAI, Google, Microsoft, et bien d'autres. Selon un récent rapport de The Information sur le sujet, pour mettre toutes les chances de son côté, Meta semble avoir décidé d'allouer plus de ressources au développement de l'IA en réorganisant ses équipes et en redistribuant les rôles.
Le rapport souligne que Meta a dissous son équipe Responsible AI (Meta RAI) afin de consacrer davantage de ressources à l'IA générative. La plupart des membres de l'équipe Meta RAI devraient rejoindre son équipe des produits d'IA générative, tandis que d'autres travailleront sur l'infrastructure d'IA de l'entreprise. Créée en février, l'équipe chargée du développement de l'IA générative chez Meta se concentre sur le développement de produits qui génèrent du langage et des images afin d'imiter la version équivalente créée par l'homme. Elle est a l'origine des grands modèles de langage (LLM), tels que Llama et Llama 2, publiés par Meta depuis le début de l'année.
L'infrastructure d'IA fait référence à la pile technologique (matérielle et logicielle) nécessaire pour développer, tester, former et déployer les applications optimisées par l’IA. Selon les analystes, la dissolution de l'équipe Meta RAI pourrait s'expliquer par le fait que la société souhaite optimiser ses efforts dans le domaine de l'IA. En fait, l'annonce intervient après que les concurrents de Meta ont injecté des fonds dans le développement de l'apprentissage automatique (ML) pour éviter d'être distancés dans la course à l'IA. Meta fait partie des grandes entreprises technologiques qui rattrapent leur retard depuis l'essor de l'IA, en particulier de l'IA générative.
Meta affirme régulièrement qu'il souhaite développer l'IA de manière responsable et a même une page consacrée à cette promesse, où elle énumère ses "piliers de l'IA responsable", notamment la responsabilité, la transparence, la sécurité, la vie privée, etc. C'est dans cette optique qu'il a créé la division Meta RAI en 2019. Cependant, de nombreux rapports avaient souligné précédemment que l'équipe Meta RAI avait peu d'autonomie et que ses initiatives devaient passer par de longues négociations avec les parties prenantes avant de pouvoir être mises en œuvre. Une chose qui, selon certains analystes, rendait l'équipe Meta RAI lente et parfois inefficace.
Pendant la vague de licenciements massifs chez Meta, des sources ont rapporté que l'équipe Meta RAI a subi des licenciements qui ont fait d'elle "une coquille vide". En l'absence de cette équipe, il pourrait être difficile d'évaluer les efforts de Meta en matière d'IA responsable. Mais selon le rapport de The Information, Jon Carvill, représentant de Meta, a affirmé : « l'entreprise continuera à donner la priorité au développement sûr et responsable de l'IA et à investir dans ce domaine ». Il a ajouté que bien que Meta divise l'équipe, "ses membres continueront à soutenir les efforts transversaux de Meta en matière de développement et d'utilisation responsables de l'IA".
L'équipe Meta RAI a été créée pour identifier les problèmes liés aux approches de la société en matière de formation de l'IA, notamment pour déterminer si les modèles sont formés avec des informations suffisamment diversifiées, dans le but de prévenir des problèmes tels que les problèmes de modération sur ses plateformes. Meta a déjà été confronté à certains de ces problèmes par le passé. Par exemple, les systèmes automatisés de Meta ont entraîné un problème de traduction sur Facebook qui a provoqué une fausse arrestation, la génération d'autocollants par l'IA sur WhatsApp produit des images biaisées lorsqu'on lui donne certaines instructions, etc.
En outre, la décision de l'entreprise de dissoudre l'équipe Meta RAI intervient à un moment où l'environnement réglementaire mondial de l'IA devient plus strict et plus exigeant. La Maison Blanche a signé des accords avec plusieurs entreprises d'IA et a également chargé ses agences de formuler des règles de sécurité en matière d'IA. De son côté, l'Union européenne (UE) a proposé un cadre juridique complet pour réglementer le développement de l'IA. Le projet de règles de l'UE couvre des aspects comme la surveillance humaine, la transparence, la responsabilité et les droits fondamentaux. Les discours sont en cours et une étape a été franchie le mois passé.
Au début du mois, plusieurs dirigeants du monde ont signé une déclaration reconnaissant la nécessité d'atténuer les risques liés à l'IA, lors du sommet international du Royaume-Uni sur la sécurité de l'IA. Les signataires ont promis de travailler ensemble pour tester la sécurité des nouveaux modèles d'IA avant qu'ils ne soient mis sur le marché. L'initiative vise à lutter contre les risques "catastrophiques" que l'IA pourrait présenter. Mais l'accord, qui a été signé par des représentants de 28 pays, dont les États-Unis, la France, le Royaume-Uni et la Chine, n'est pas juridiquement contraignant. Ce qui a été vivement critiqué par les experts de l'industrie.
Garantir la sécurité de l'IA est devenu une priorité pour les principaux acteurs de l'industrie. En juillet, Anthropic, Google, Microsoft et OpenAI ont annoncé la formation d'un groupe industriel chargé de définir des normes de sécurité à mesure que l'IA progresse. Mais dans le même temps, certains experts en IA se montrent prudents en ce qui concerne l'adoption d'une réglementation sur l'IA. Selon eux, une réglementation trop précoce pourrait avoir des conséquences négatives sur l'évolution de la technologie. En lieu et place d'une réglementation, certains experts en IA proposent d'opter pour le développement des modèles d'IA en open source.
S'adressant à Rishi Sunak lors d'un événement en direct à Londres jeudi, Elon Musk, PDG de xAI, a déclaré : « nous en arriverons à un point où l'IA en source ouverte commencera à s'approcher de l'intelligence humaine, voire à la dépasser. Je ne sais pas vraiment quoi faire à ce sujet ». Selon Elon Musk, l'IA représente une menace existentielle pour l'humanité et il est urgent de prendre des mesures pour atténuer ses risques. En commentant ces propos, Nick Clegg, président des affaires internationales de Meta, a déclaré que les réglementations gouvernementales en vue pourraient se heurter à la résistance des entreprises technologiques.
« Les nouvelles technologies donnent toujours lieu à un battage médiatique. Elles entraînent souvent un zèle excessif chez les partisans et un pessimisme excessif chez les détracteurs. Je me souviens des années 80. Il y a eu cette même panique morale à propos des jeux vidéo. Il y a eu des paniques morales autour de la radio, de la bicyclette, d'Internet », a ajouté Clegg. De son côté, Mark Surman, président et directeur exécutif de la fondation Mozilla, qui supervise le développement du navigateur Firefox, s'est également inquiété du fait que le sommet soit une plateforme mondiale permettant aux entreprises privées de faire valoir leurs intérêts.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de la dissolution de l'équipe Responsible IA de Meta ?
Quels impacts cela pourrait-il avoir sur l'engagement de Meta en matière d'IA responsable ?
Développer les modèles d'IA en open source les rendra-t-il plus centrés sur les valeurs humaines ?
Voir aussi
Plusieurs dirigeants du monde signent une déclaration reconnaissant la nécessité d'atténuer les risques liés à l'IA, mais le document n'est pas juridiquement contraignant et est vivement critiqué
Les législateurs de l'UE progressent dans leurs négociations cruciales sur les nouvelles règles en matière d'IA
La Maison Blanche lance un plan pour promouvoir l'IA éthique et demande l'aide des hackers pour détecter les failles des chatbots d'IA, elle prendra également l'avis des PDG des entreprises d'IA
Meta aurait dissous son équipe "Responsible AI" qui travaillait sur la compréhension et la prévention des dommages associés à l'IA,
Selon un rapport
Meta aurait dissous son équipe "Responsible AI" qui travaillait sur la compréhension et la prévention des dommages associés à l'IA,
Selon un rapport
Le , par Mathis Lucas
Une erreur dans cette actualité ? Signalez-nous-la !