L'utilisation par Google de l'intelligence artificielle (IA) pour lutter contre les publicités nuisibles a entraîné la suspension de 39,2 millions de comptes frauduleux. Dans son rapport 2024 sur la sécurité des publicités, Google a souligné l'efficacité des grands modèles de langage (LLM) avancés dans la détection et la prévention de la fraude des annonceurs. Les améliorations apportées depuis 2023 ont permis à ces modèles d'identifier rapidement les menaces émergentes avec un minimum de données, en ciblant des signaux tels que l'usurpation d'identité d'une entreprise et les méthodes de paiement illégales.Ce développement fait suite à des années d'efforts de la part de Google pour détecter les annonces frauduleuses, notamment celles d'assistance technique, utilisées par des arnaqueurs de plus en plus professionnels. En 2018, la société a annoncé le lancement d'un programme de vérification mondial visant à garantir que seuls des fournisseurs légitimes peuvent faire de la publicité sur la plateforme de Google. L'entreprise a ainsi réaffirmé son engagement en faveur de la sécurité des utilisateurs, alors que les tactiques frauduleuses deviennent de plus en plus trompeuses et répandues.
En 2021, une étude de l'association de consommateurs Which ? a révélé que Google et Facebook n'ont pas pris les mesures nécessaires pour lutter contre les publicités frauduleuses. Le rapport a indiqué que de nombreuses publicités signalées restaient en ligne et qu'une grande partie des victimes déclaraient qu'aucune mesure n'avait été prise. En réponse, les deux entreprises ont réaffirmé leur opposition à la fraude et se sont engagées à améliorer en permanence la surveillance des publicités.
Ce mercredi 16 avril 2025, Google a publié son rapport 2024 sur la sécurité des publicités, mettant en évidence son utilisation de LLM avancés pour détecter et faire respecter la fraude des annonceurs. Depuis 2023, Google a apporté « 50 améliorations » à ses LLM qui « ne nécessitent qu'une fraction des informations dont les modèles antérieurs avaient besoin pour reconnaître rapidement les menaces émergentes, identifier les schémas d'abus et distinguer les entreprises légitimes des escroqueries. » Les indicateurs d'abus qui peuvent être détectés par l'outil d'IA de Google comprennent l'usurpation d'identité d'une entreprise et les détails de paiement illégaux.
En conséquence, Google a bloqué ou supprimé 5,1 milliards d'annonces l'année dernière. La majorité des annonces bloquées par Google étaient dues à des « abus du réseau publicitaire », c'est-à-dire à des méthodes visant à contourner le processus d'examen de Google en trompant les utilisateurs avec des annonces d'appât ou en utilisant des logiciels malveillants. D'autres annonces ont fait l'objet de violations de marques commerciales et d'annonces personnalisées qui violent les règles de Google en ciblant les utilisateurs ou en faisant la promotion de produits basés sur des sujets sensibles tels que les difficultés personnelles, l'identification et les croyances, et les intérêts sexuels.
Google utilise également l'IA pour lutter contre l'augmentation du nombre d'acteurs malveillants qui utilisent l'IA pour commettre des escroqueries. Les « deepfakes » sont de plus en plus répandus et convaincants. L'année dernière, l'acteur Tom Hanks a été utilisé pour promouvoir des canulars médicaux. Scarlett Johansson a intenté une action en justice contre une application qui avait utilisé son image et sa voix pour en faire la promotion. Google s'est attaqué aux « mauvais acteurs qui utilisent des images ou des sons générés par l'IA pour suggérer une affiliation avec une célébrité afin de promouvoir une escroquerie » en suspendant plus de 700 000 comptes d'annonceurs, ce qui a entraîné une diminution de 90 % du nombre de signalements. Au total, 415 millions de publicités frauduleuses ont été bloquées ou supprimées.
L'équipe de sécurité publicitaire de Google a déclaré avoir fermé la majorité des comptes frauduleux avant même que les utilisateurs ne reçoivent une publicité. Compte tenu du volume actuel de contenus offensifs et nuisibles sur l'internet, il est difficile d'imaginer l'ampleur des publicités qui n'ont jamais vu le jour.
Des modèles plus avancés améliorent l'application des règles
Selon le rapport de Google, les acteurs malveillants adaptent constamment leurs tactiques pour échapper à la détection, ce qui fait de l'application des politiques un effort permanent. Alors que les anciens modèles d'apprentissage automatique de Google nécessitaient de vastes ensembles de données pour l'entraînement, les derniers LLM de Google fonctionnent de manière beaucoup plus efficace. Ils n'ont besoin que d'une fraction des informations requises par les modèles antérieurs pour reconnaître rapidement les menaces émergentes, identifier les schémas d'abus et distinguer les entreprises légitimes des escroqueries. « Cette agilité est essentielle pour lutter à grande échelle contre des menaces diverses et en évolution rapide », selon l'entreprise.
L'année dernière, Google a investi massivement pour rendre ses LLM plus avancés, en apportant plus de 50 améliorations à ses modèles. Cette initiative a permis une application plus efficace et plus précise des règles à grande échelle. En donnant la priorité à ces avancées techniques, les équipes de Google ont pu se concentrer sur des problèmes plus complexes et ambigus, ce qui permet aux LLM de disposer de données d'entraînement nuancées pour mieux traiter ces cas à l'avenir.
Dans son rapport, Google a pris l'exemple de l'application des règles en matière d'édition, qui permet aux éditeurs de monétiser en toute sécurité leur contenu par le biais d'annonces : les modèles alimentés par l'IA de Google ont contribué à la détection et à l'application de 97 % des pages pour lesquelles des mesures ont été prises en 2024. En utilisant ces modèles, Google a « considérablement accéléré l'examen des sites, permettant ainsi une monétisation plus rapide tout en empêchant les publicités d'apparaître sur les pages en infraction »...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.