Google a révélé que son chatbot d'IA phare, Gemini, a été submergé par des acteurs « à motivation commerciale » qui tentent de le cloner en lui envoyant des requêtes à répétition, parfois avec des milliers de requêtes différentes, dont une campagne qui a envoyé plus de 100 000 requêtes à Gemini. Google a décrit cette activité comme une « extraction de modèle », dans laquelle des imitateurs potentiels sondent le système à la recherche des modèles et de la logique qui le font fonctionner. Les attaquants semblent vouloir utiliser ces informations pour créer ou renforcer leur propre IA, a-t-il déclaré. La société pense que les coupables sont principalement des entreprises privées ou des chercheurs cherchant à obtenir un avantage concurrentiel.Gemini, anciennement Bard, est un assistant conversationnel développé par l'entreprise Google. Pour générer du texte, il se base sur une famille de grands modèles de langage également appelée Gemini, introduite au public le 7 décembre 2023. Gemini est l'acronyme de Generalized Multimodal Intelligence Network. Les modèles se déclinent en trois tailles : nano, pro et ultra. Gemini peut comprendre et interagir avec l'audio et la vidéo, et générer du texte (poésie, scripts, pièces musicales, courriels, lettres, etc.), du code, des traductions (entre plus de 100 langues). Il peut produire plusieurs types de contenu créatif (images, dessins, sons, musique, vidéos…), aider des chercheurs en analysant des données ou en générant des hypothèses. Gemini peut répondre aux questions de manière informative ou en produisant des cours personnalisés, des jeux, des tutoriels, etc., avec les limites des IA (erreurs, biais, « hallucinations »…).
Alors que la compétition autour de l’intelligence artificielle générative est souvent racontée comme une succession de coups médiatiques, de démonstrations spectaculaires et d’annonces parfois précipitées, Google avance à un rythme plus feutré. Avec Gemini, son modèle d’IA unifié, le groupe semble aujourd’hui récolter les fruits d’une stratégie plus structurelle que narrative. Sans déclarer officiellement la victoire, Google apparaît de plus en plus comme un acteur central, voire dominant, dans la phase actuelle de la course à l’IA.
Récemment, Google a révélé que son chatbot d'IA phare, Gemini, a été submergé par des acteurs « à motivation commerciale » qui tentent de le cloner en lui envoyant des requêtes à répétition, parfois avec des milliers de requêtes différentes, dont une campagne qui a envoyé plus de 100 000 requêtes à Gemini. Dans un rapport, Google a déclaré être de plus en plus victime d'« attaques par distillation », c'est-à-dire de questions répétées visant à amener un chatbot à révéler son fonctionnement interne.
Google a décrit cette activité comme une « extraction de modèle », dans laquelle des imitateurs potentiels sondent le système à la recherche des modèles et de la logique qui le font fonctionner. Les attaquants semblent vouloir utiliser ces informations pour créer ou renforcer leur propre IA, a-t-il déclaré. La société pense que les coupables sont principalement des entreprises privées ou des chercheurs cherchant à obtenir un avantage concurrentiel. Un porte-parole a déclaré que Google pensait que les attaques provenaient du monde entier, mais a refusé de donner plus de détails sur ce que l'on savait des suspects.
L'ampleur des attaques contre Gemini indique qu'elles sont très probablement courantes ou le deviendront bientôt contre les outils d'IA personnalisés des petites entreprises, a déclaré John Hultquist, analyste en chef du groupe Threat Intelligence de Google. « Nous allons être le canari dans la mine de charbon pour beaucoup d'autres incidents », a déclaré Hultquist. Il a refusé de nommer les suspects. La société considère la distillation comme un vol de propriété intellectuelle, a-t-elle déclaré.
Les entreprises technologiques ont dépensé des milliards de dollars pour développer leurs chatbots IA, ou grands modèles de langage, et considèrent le fonctionnement interne de leurs meilleurs modèles comme des informations exclusives extrêmement précieuses. Même si elles disposent de mécanismes pour tenter d'identifier les attaques par distillation et de bloquer les personnes qui les perpétrent, les principaux LLM sont intrinsèquement vulnérables à la distillation, car ils sont accessibles à tous sur Internet. OpenAI, la société à l'origine de ChatGPT, a accusé l'année dernière son rival chinois DeepSeek d'avoir mené des attaques de distillation afin d'améliorer ses modèles.
Selon Google, bon nombre de ces attaques visaient à mettre au jour les algorithmes qui aident Gemini à « raisonner », c'est-à-dire à décider comment traiter les informations. Hultquist a déclaré qu'à mesure que de plus en plus d'entreprises conçoivent leurs propres LLM personnalisés, entraînés sur des données potentiellement sensibles, elles deviennent vulnérables à des attaques similaires. « Imaginons que votre LLM ait été entraîné sur 100 ans de réflexions secrètes sur votre façon de négocier. Théoriquement, vous pourriez en distiller une partie », a-t-il déclaré.
En 2026, Gemini est considéré comme le modèle d'IA le plus populaire sur le marché. C'est en tout cas l'avis de certains spécialistes comme Geoffrey Hinton, le « parrain de l'IA ». Il a notamment déclaré que Google est en train de rattraper OpenAI dans la course à l'intelligence artificielle (IA). Hinton a déclaré : « Je pense qu'il est en fait plus surprenant que Google ait mis autant de temps à dépasser OpenAI. Je pense qu'à l'heure actuelle, ils commencent à le dépasser ».
Même les chiffres semblent aller dans ce sens. Lors de la présentation de ses résultats financiers du quatrième trimestre, Google a révélé que son application d'assistant IA Gemini avait dépassé les 750 millions d'utilisateurs actifs mensuels (MAU). Cela représente une augmentation de 100 millions par rapport aux 650 millions de MAU du trimestre précédent. L'écart qui la sépare de son plus grand rival, ChatGPT, qui compte 810 millions d'utilisateurs actifs par mois, se réduit.
Voici un extrait du rapport de Google :
GTIG AI Threat Tracker : distillation, expérimentation et intégration (continue) de l'IA à des fins adversaires
Au cours du dernier trimestre 2025, le Google Threat Intelligence Group (GTIG) a observé que les acteurs malveillants intégraient de plus en plus l'intelligence artificielle (IA) pour accélérer le cycle de vie des attaques, ce qui leur permettait de gagner en productivité dans les domaines de la reconnaissance, de l'ingénierie sociale et du développement de logiciels malveillants. Ce rapport fait suite à nos conclusions de novembre 2025 concernant les progrès réalisés par les acteurs malveillants dans l'utilisation des outils d'IA.
En identifiant ces indicateurs précoces et ces preuves de concept offensives, le GTIG vise à fournir aux défenseurs les informations nécessaires pour anticiper la prochaine phase des menaces basées sur l'IA, contrecarrer de manière proactive les activités malveillantes et renforcer continuellement nos classificateurs et notre modèle.
Résumé
Google DeepMind et GTIG ont constaté une augmentation des tentatives d'extraction de modèles ou « attaques par distillation », une méthode de vol de propriété intellectuelle qui enfreint les conditions d'utilisation de Google. Tout au long de ce rapport, nous avons répertorié les mesures que nous avons prises pour contrecarrer les activités malveillantes, notamment la détection, la perturbation et l'atténuation des activités d'extraction de modèles par Google. Bien que nous n'ayons pas observé d'attaques directes contre des modèles de pointe ou des produits d'IA générative de la part d'acteurs APT (Advanced Persistent Threat), nous avons observé et atténué de fréquentes attaques d'extraction de modèles provenant d'entités du secteur privé partout dans le monde et de chercheurs cherchant à cloner une logique propriétaire.
Pour les acteurs malveillants soutenus par des gouvernements, les grands modèles linguistiques (LLM) sont devenus des outils essentiels pour la recherche technique, le ciblage et la génération rapide d'appâts de phishing nuancés. Ce rapport trimestriel met en évidence la manière dont les acteurs malveillants de la République populaire démocratique de Corée (RPDC), de l'Iran, de la République populaire de Chine (RPC) et de la Russie ont mis en œuvre l'IA à la fin de l'année 2025 et améliore notre compréhension de la manière dont l'utilisation abusive de l'IA générative se manifeste dans les campagnes que nous perturbons sur le terrain. Le GTIG n'a pas encore observé d'acteurs APT ou d'opérations d'information (IO) ayant atteint des capacités révolutionnaires qui modifient fondamentalement le paysage des menaces.
Ce rapport examine plus particulièrement :...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.