Une proposition d'exemption au Digital Millennium Copyright Act (DMCA) permettrait aux chercheurs de contourner les conditions d'utilisation des outils d'IA pour examiner les biais, les données d'entraînement et les résultats potentiellement nuisibles. Cette exemption, soutenue par le ministère de la Justice américain, vise à permettre des recherches de bonne foi sans crainte de poursuites judiciaires. Les chercheurs, universitaires et hackers impliqués souhaitent rendre plus transparent le fonctionnement des IA, souvent entravé par des conditions de service restrictives.
La section 1201 du DMCA, qui inclut déjà des exemptions pour la réparation d'équipements et la recherche en sécurité, pourrait être modifiée pour inclure les systèmes d'IA. La proposition d'exemption rencontre l'opposition de certaines entreprises et associations, qui estiment que les chercheurs devraient obtenir un consentement préalable pour mener leurs recherches.
Le gouvernement américain envisage actuellement une dérogation à la loi américaine sur le droit d'auteur qui permettrait d'enfreindre les mesures de protection technique et la gestion des droits numériques (DRM) des systèmes d'IA afin d'en savoir plus sur leur fonctionnement, de les sonder pour détecter les biais, la discrimination, les résultats nuisibles et inexacts, et d'en savoir plus sur les données à partir desquelles ils ont été formés. L'exemption permettrait de mener de « bonne foi » des recherches sur la sécurité et des recherches universitaires, ainsi que de « red-teamer » des produits d'IA, même si le chercheur doit contourner des systèmes conçus pour empêcher cette recherche. Le métier de Red teamer consiste à simuler des attaques en grandeur réelle, de manière à connaître le degré d’efficacité des défenses cyber d’une structure donnée. Il s’agit, principalement, de conduire des tests d’intrusion à l’encontre de la structure elle-même.
L'exemption proposée est soutenue par le ministère de la Justice, qui a déclaré que « la recherche de "bonne foi" peut aider à révéler la collecte ou l'exposition non intentionnelle ou non divulguée de données personnelles sensibles, ou à identifier les systèmes dont les opérations ou les résultats sont dangereux, inexacts ou inefficaces pour les utilisations auxquelles ils sont destinés ou commercialisés par les développeurs, ou employés par les utilisateurs finaux. Ces recherches peuvent être particulièrement importantes lorsque les plateformes d'IA sont utilisées à des fins particulièrement importantes, où les résultats involontaires, inexacts ou imprévisibles de l'IA peuvent causer de graves préjudices aux individus ».
Les enjeux de l'Exemption DMCA pour les chercheurs en sécurité informatique
La Computer Crime and Intellectual Property Section (CCIPS) de la division criminelle du ministère américain de la Justice apprécie cette opportunité. Le ministère de la Justice est chargé de l'application pénale de plusieurs lois protégeant la propriété intellectuelle, applicable aux violations délibérées des dispositions anti-contournement de la section 1201 à des fins de gain commercial ou financier. Le ministère de la Justice s'intéresse également à l'usage de l'intelligence artificielle et à son impact sur la vie privée et les droits civils.
Au sein de la division criminelle, la CCIPS conseille d'autres procureurs fédéraux sur l'application du DMCA et a engagé des poursuites pénales dans diverses affaires de contournement de mesures de protection technologique et de trafic de dispositifs de contournement. La CCIPS est également responsable de la poursuite des délits fédéraux impliquant l'accès non autorisé aux ordinateurs et d'autres infractions en vertu de la loi sur la fraude et l'abus informatiques (CFAA). Lors des précédentes étapes d'élaboration des règles, la CCIPS a insisté sur l'importance de la recherche en sécurité pour détecter les vulnérabilités des systèmes informatiques et a soutenu l'extension de l'exemption du DMCA pour la recherche en sécurité informatique de bonne foi. La CCIPS recommande à nouveau le renouvellement de cette exemption.
« Il y a beaucoup d'inquiétude concernant ces modèles, leur conception, leurs biais, leur utilisation à des fins discriminatoires et leur fiabilité générale », déclare Shayne Longpre, chercheur au MIT, membre de l'équipe ayant initié l'exemption. « L'écosystème des chercheurs travaillant sur ce sujet n'est pas très sain. Certains font le travail, mais beaucoup voient leur compte suspendu pour des recherches de bonne foi, ou craignent les implications légales potentielles de la violation des conditions de service », ajoute-t-il.
Il existe de nombreux exemples d'articles académiques, de reportages journalistiques et de travaux exploratoires de « red teaming » utilisant des outils d'IA, nécessitant parfois de contourner ou de tromper ces outils pour révéler les données sur lesquelles ils sont entraînés, leurs biais ou leur manque de fiabilité. En mars, Longpre et ses collègues ont publié une analyse citant une version antérieure des conditions d'utilisation de Midjourney, stipulant : « Si vous violez sciemment la propriété intellectuelle de quelqu'un d'autre et que cela nous coûte de l'argent, nous vous réclamerons cet argent. Nous pourrions également prendre d'autres mesures, comme demander à un tribunal de vous faire payer nos frais de justice. Ne le faites pas ». L'article de Longpre soutient que « les entreprises d'IA ont commencé à utiliser leurs conditions de service pour décourager l'analyse ».
Jusqu'à présent, une grande partie de la recherche sur le contournement des outils d'IA s'est concentrée sur la reproduction d'œuvres protégées par le droit d'auteur pour démontrer que les modèles de langage massif (LLM) sont entraînés sur de telles œuvres. L'industrie musicale a utilisé cette approche pour prouver que les outils d'IA Suno et Udio étaient entraînés sur de la musique protégée par le droit d'auteur, une preuve centrale dans un procès important contre ces sociétés. On peut donc facilement imaginer un scénario où des chercheurs ou des journalistes utilisent un outil d'IA pour recréer des œuvres protégées par le droit d'auteur, révélant ainsi que l'outil a été entraîné sur ces données, ce qui pourrait avoir des conséquences négatives pour l'entreprise d'IA, qui tenterait alors d'accuser les chercheurs ou journalistes de violation des conditions de service.
Lors d'une audition au printemps dernier, dont la transcription vient d'être publiée, Morgan Reed, de l'App Association, un groupe de pression qui représente un grand nombre d'entreprises d'IA et d'autres développeurs d'applications, a fait valoir que les chercheurs devraient obtenir le consentement préalable des entreprises d'IA pour effectuer ce type de recherche. « Si vous ne contactez pas l'entreprise à l'avance pour l'informer que vous faites partie d'une équipe rouge, vous êtes essentiellement un pirate informatique potentiellement malveillant », a déclaré Reed. « C'est donc un chercheur qui agit. Il s'introduit dans l'entreprise. L'entreprise dont ils ont suivi le LLM est mécontente d'une manière ou d'une autre et les poursuit pour violation des droits d'auteur. Ce qu'ils veulent vraiment, ce qu'ils demandent vraiment, c'est une protection de la responsabilité a posteriori ».
Dans un document soumis au Bureau des droits d'auteur, Harley Geiger, du Hacking Policy Council, militant pour l'exemption, a déclaré que celle-ci était « cruciale pour identifier et corriger les failles algorithmiques afin de prévenir les dommages ou les perturbations », ajoutant que « l'absence de protection juridique claire en vertu de l'article 1201 du DMCA affecterait négativement cette recherche ». L'exemption ne stopperait pas les entreprises d'essayer d'empêcher ce type de recherche, mais elle protégerait légalement les chercheurs qui enfreignent les conditions de service des entreprises pour mener leurs travaux.
Cette année, une pétition soumise par Jonathan Weiss de Chinnu propose une nouvelle exemption pour la « recherche sur la sécurité concernant les biais de l'IA générative ». Weiss craint que ces modèles ne perpétuent ou n'exacerbent les préjugés systémiques et propose une exemption pour le contournement des mesures technologiques pour la recherche de biais et le partage des résultats de recherche. Le groupe de chercheurs universitaires soutient cette proposition tout en suggérant une exemption élargie pour couvrir non seulement l'IA générative, mais aussi d'autres formes d'IA. La CCIPS est d'accord, estimant que limiter l'exemption à l'IA générative pourrait prêter à confusion et qu'une exemption plus large serait bénéfique.
La recherche indépendante sur les systèmes d'IA, y compris la détection de biais et de résultats nuisibles, est cruciale pour garantir l'intégrité et la sécurité des systèmes d'IA. La CCIPS reconnaît que cette recherche peut être malveillante si elle n'est pas menée de « bonne foi », mais estime qu'une exemption pour la recherche de bonne foi devrait être considérée. Le ministère de la Justice recommande au Bureau du droit d'auteur de clarifier l'exemption existante pour inclure la recherche de « bonne foi » sur les biais et autres résultats nuisibles des systèmes d'IA.
Exemption DMCA : un coup dur pour la propriété intellectuelle des entreprises d'AI ?
Selon certains analystes, la proposition d'exemption au Digital Millennium Copyright Act pour permettre aux chercheurs de contourner les conditions d'utilisation des outils d'IA est une initiative louable. En favorisant la recherche de bonne foi, cette exemption contribuerait à prévenir les discriminations et à améliorer la fiabilité des systèmes d'IA, un aspect crucial dans une société de plus en plus dépendante de ces technologies.
Cependant, cette proposition n'est pas sans risques. Permettre de contourner les conditions de service pourrait potentiellement ouvrir la porte à des abus et des utilisations malveillantes. Des individus pourraient exploiter cette exemption pour pirater des systèmes ou pour des actions non éthiques, mettant en danger la sécurité des informations et des données. Il est donc essentiel d'établir des garde-fous et des mesures de contrôle strictes pour s'assurer que cette exemption soit utilisée uniquement dans un cadre de recherche de bonne foi et non à des fins malveillantes.
De plus, les entreprises d'IA investissent massivement dans le développement de leurs outils et algorithmes, et cette exemption pourrait compromettre leurs droits de propriété intellectuelle. En permettant aux chercheurs de contourner les conditions de service, on risque de porter atteinte à la compétitivité et à l'innovation de ces entreprises. Il serait important de trouver un équilibre entre la nécessité de promouvoir la transparence et la sécurité, et la protection des droits et des investissements des entreprises d'IA.
L'exemption proposée au DMCA représente une avancée significative pour la transparence et la sécurité dans le domaine de l'intelligence artificielle. Toutefois, pour maximiser les bénéfices tout en minimisant les risques potentiels, il est crucial de mettre en place un cadre légal clair et équilibré, accompagné de mécanismes de surveillance et de contrôle appropriés. Cela permettra de garantir que cette exemption soit utilisée de manière éthique et responsable, tout en protégeant les droits de propriété intellectuelle des entreprises.
Sources : US Department of Justice, Analysis by Longpre and colleagues, Transcript of proceedings
Et vous ?
Quel est votre avis sur le sujet ?
Selon vous, l'exemption au DMCA représente-t-elle une avancée vers la transparence ou une menace pour la sécurité des IA ?
L'exemption DMCA constitue-t-elle un revers pour la protection de la propriété intellectuelle des entreprises d'IA ?
Voir aussi :
La méthode "Crescendo" permet de jailbreaker l'IA de type LLM, en utilisant des invites en apparence inoffensives, afin de produire des résultats qui seraient normalement filtrés et refusés
Anthropic publie un nouvel article d'étude sur le "many-shot jailbreaking", une technique de "jailbreaking" qui peut être utilisée pour contourner les garde-fous mis en place sur les LLM
Les chatbots IA Jailbreakés peuvent Jailbreaker d'autres chatbots, les chatbots IA peuvent par exemple convaincre d'autres chatbots d'enseigner aux utilisateurs comment fabriquer des bombes
Il pourrait bientôt être légal de « jailbreaker » l'IA pour en révéler le fonctionnement,
Ce qui pourrait potentiellement ouvrir la porte à des abus et des utilisations malveillantes
Il pourrait bientôt être légal de « jailbreaker » l'IA pour en révéler le fonctionnement,
Ce qui pourrait potentiellement ouvrir la porte à des abus et des utilisations malveillantes
Le , par Bruno
Une erreur dans cette actualité ? Signalez-nous-la !