Les API de connexion de Google et d'Apple utilisées par des sites de faux nus
Les entreprises telles que Google et Apple décrivent leur API de connexion comme un moyen plus rapide, plus pratique et plus respectueux de la vie privée de s'inscrire à une application ou à un site Web. Mais une récente analyse de Wired a révélé que les options de connexion sont utilisées par de nombreuses plateformes permettant de générer des images intimes non consensuelles de femmes et de jeunes filles. Cette approche permet aux internautes de créer facilement des comptes sur les faux sites Web, ce qui leur confère un vernis de crédibilité, avant de payer des crédits et de générer des images.
L'analyse a révélé que 16 des plus grands sites de déshabillage et de « nudité » utilisent depuis des mois les API de connexion de Google, Apple, Discord, Twitter, Patreon et Line. Le système de connexion de Google apparaît sur les 16 sites, celui de Discord sur 13 et celui d'Apple sur six. Le bouton de X (anciennement Twitter) est présent sur trois sites, celui de Patreon et celui du service de messagerie Line apparaissant tous deux sur les deux mêmes plateformes.
Le nom des sites n'a pas été divulgué, car ils permettent des abus. Plusieurs d'entre eux font partie de réseaux plus vastes et appartiennent aux mêmes personnes ou entreprises. Les systèmes de connexion ont été utilisés malgré les règles générales des entreprises technologiques telles que Google et Apple qui stipulent que les développeurs ne peuvent pas utiliser leurs services d'une manière qui permettrait de nuire, de harceler ou d'envahir la vie privée des gens.
Le rapport a suscité des critiques à l'égard des fournisseurs d'API de connexion. Les critiques affirment que les fournisseurs d'API de connexion doivent s'assurer que leur technologie est utilisée à bon escient. « Il s'agit de la poursuite d'une tendance qui normalise les violences sexuelles commises par les entreprises technologiques à l'encontre des femmes et des jeunes filles », déclare Adam Dodge, avocat et fondateur de EndTAB (Ending Technology-Enabled Abuse).
Il a ajouté : « les API de connexion sont des outils de commodité. Nous ne devrions jamais faire de la violence sexuelle un acte de commodité. Nous devrions ériger des murs autour de l'accès à ces applications, mais au lieu de cela, nous donnons aux gens un pont-levis ». Dans le même temps, d'autres critiques affirment qu'il n'est pas souhaitable que les fournisseurs d'API de connexion gardent une mainmise sur les sites autorisés à utiliser leurs services.
À la suite des résultats de l'analyse, les porte-parole de Discord et d'Apple ont déclaré avoir supprimé les comptes de développeurs liés à leurs sites Web. Plus tard, l'accès de ces plateformes à l'API de connexion de Discord a été supprimé pour violation de sa politique de développement. L'un des sites de déshabillage a publié sur un canal Telegram que la connexion via Discord était « temporairement indisponible » et a déclaré qu'il essayait de rétablir l'accès.
Google a déclaré qu'il prendrait des mesures à l'encontre des développeurs s'il constatait que ses conditions n'étaient pas respectées. Patreon a déclaré qu'il interdit les comptes qui permettent la création d'images explicites, et Line a confirmé qu'il enquête, mais qu'il ne peut pas faire de commentaires sur des sites Web spécifiques. Enfin, le réseau social X d'Elon Musk n'a pas répondu à une demande de commentaire sur la manière dont ses systèmes sont utilisés.
Le problème persistant des deepfakes est devenu plus critique à l'ère de l'IA générative
Les deepfakes sont des images, des sons ou des vidéos générés par l'IA dans lesquels l'image ou l'apparence d'une personne réelle est modifiée numériquement d'une manière ou d'une autre. Ils sont utilisés à diverses fins désagréables, qu'il s'agisse de faire croire qu'un homme politique a tenu des propos douteux ou de créer une fausse image nue de quelqu'un pour l'humilier ou l'intimider. Dans certains cas, des lycéens ont utilisé des deepfakes pour créer des images CSAM de leurs camarades de classe. Les deepfakes sont de plus en plus difficiles à détecter, car les logiciels sont de plus en plus sophistiqués.
Il s'agit d'un problème critique pour la vie privée. « Nous devons être clairs : il ne s'agit pas d'innovation, mais d'abus sexuel », déclare David Chiu, procureur de la ville de San Francisco, qui a récemment intenté une action en justice contre les sites de déshabillage et de nudité et leurs créateurs. Selon le procureur, les 16 sites visés par la plainte de son bureau ont reçu environ 200 millions de visites au cours des seuls six premiers mois de cette année.
Les sites de déshabillage fonctionnent comme des entreprises, souvent dans l'ombre, et ne fournissent que très peu d'informations sur leurs propriétaires et leur mode de fonctionnement. Les sites gérés par les mêmes personnes se ressemblent souvent et utilisent des conditions générales presque identiques. Certaines de ces plateformes proposent parfois plus d'une douzaine de langues différentes, ce qui démontre le caractère mondial du problème.
Chiu affirme : « ces sites se livrent à une exploitation horrible des femmes et des jeunes filles dans le monde entier. Ces images sont utilisées pour intimider, humilier et menacer les femmes et les jeunes filles ». Certains canaux Telegram liés à ces sites Web comptent des dizaines de milliers de membres chacun. Par ailleurs, le rapport souligne également que ces plateformes évoluent constamment et intègre davantage les capacités de l'IA générative.
L'une de ces plateformes affirme que son IA peut personnaliser l'apparence du corps des femmes et permettre des « téléchargements à partir d'Instagram ». Les sites Web font généralement payer les gens pour générer des images et peuvent mettre en place des systèmes d'affiliation pour encourager les gens à les partager ; certains se sont regroupés en un collectif pour créer leur propre cryptomonnaie qui pourrait être utilisée pour payer les images.
Les identifiants des grandes entreprises technologiques sont souvent présentés lorsque quelqu'un essaie de s'inscrire sur la plateforme de déshabillage ou clique sur des boutons pour essayer de générer des images. On ne sait pas exactement combien de personnes ont utilisé ces méthodes de connexion, et la plupart des sites Web de mauvais goût permettent également aux utilisateurs de créer des comptes à l'aide de leur seule adresse électronique.
Parmi les sites examinés, la majorité a mis en œuvre les API de connexion de plus d'une entreprise technologique, la connexion avec Google étant la plus utilisée. Lorsque l'on clique sur cette option, des invites de Google indiquent que le site obtiendra le nom, l'adresse électronique, les préférences linguistiques et la photo de profil de l'utilisateur. L'API de connexion de Google révèle aussi des informations sur les comptes de développeurs liés à un site.
Les sites Web de deepfakes proposent des options de paiement via Mastercard et Visa
Le rapport indique que ce ne sont pas seulement les fournisseurs de systèmes de connexion rapide qui sont concernés. Outre les systèmes de connexion, plusieurs des plateformes affichent les logos de Mastercard ou de Visa, laissant entendre qu'ils pouvaient éventuellement être utilisés pour payer leurs services. Visa n'a pas répondu à la demande de commentaire du Wired, tandis qu'un porte-parole de Mastercard a déclaré que l'achat de deepfake non consensuel n'est pas autorisé sur le réseau de Mastercard. Il a également ajouté que l'entreprise prend des mesures lorsqu'elle détecte ou est informée d'un tel cas.
À plusieurs reprises, des entreprises technologiques et des prestataires de services de paiement ont pris des mesures à l'encontre de services d'IA permettant à des personnes de générer des images explicites ou des vidéos non consensuelles, après que les médias eurent fait état de leurs activités. Cependant, les analystes affirment que ces mesures sont limitées et n'empêchent toujours pas l'utilisation abusive de leurs systèmes de paiement sur ces sites.
Selon d'autres critiques, les entreprises technologiques ont tardé à prendre conscience de l'ampleur du problème : les sites Web apparaissent en bonne place dans les résultats de recherche, des publicités payantes les promeuvent sur les médias sociaux et des applications apparaissent dans les magasins d'applications. L'inclusion des options de connexion avec Google ou Apple donne l'impression que les sites de deepfakes sont approuvés par ces entreprises.
Clare McGlynn, professeur de droit à l'université de Durham, en Angleterre, estime que les plateformes des grandes entreprises technologiques favorisent la croissance des sites de déshabillage et autres sites similaires en ne prenant pas de mesures proactives à leur encontre. « Ce qui est inquiétant, c'est que ce sont les mesures de sécurité et de modération les plus élémentaires qui manquent ou ne sont pas appliquées », a déclaré le professeur McGlynn.
« Il est évident qu'elles s'en moquent, malgré leur rhétorique. Sinon, elles auraient pris les mesures les plus simples pour réduire l'accès à l'information », a-t-il ajouté. Google, Apple et d'autres ont déclaré qu'ils continuent d'analyser la situation et prendraient les mesures adéquates en cas d'abus de leurs services.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de l'utilisation des API de connexion d'entreprises comme Apple et Google sur les sites Web de génération de nus ?
Partagez-vous des critiques selon lesquels les entreprises telles que Google et Apple sont en partie responsables de la prolifération de ces sites Web ?
Comment l'industrie peut-elle lutter contre la prolifération des deepfakes à l'ère de l'IA générative ?
Voir aussi
Les "deepfakes" politiques représentent l'utilisation abusive la plus populaire de l'IA : sa faible technicité et son accessibilité ont accru l'utilisation malveillante de l'IA générative, selon DeepMind
Un expert en IA « complètement terrifié » par les élections américaines de 2024, qui s'annoncent comme un « tsunami de désinformation », avec l'avènement des deepfakes et les IA génératives
Plus de 70 % des consommateurs craignent d'être dupés par un deepfake et de voir l'IA et les deepfakes influencer les prochaines élections dans leur pays, selon une étude de Jumio