Alors que la compétition autour de l’intelligence artificielle générative est souvent racontée comme une succession de coups médiatiques, de démonstrations spectaculaires et d’annonces parfois précipitées, Google avance à un rythme plus feutré. Avec Gemini, son modèle d’IA unifié, le groupe semble aujourd’hui récolter les fruits d’une stratégie plus structurelle que narrative. Sans déclarer officiellement la victoire, Google apparaît de plus en plus comme un acteur central, voire dominant, dans la phase actuelle de la course à l’IA. C'est en tout cas l'avis de certains spécialistes comme Geoffrey Hinton, le « parrain de l'IA ».Depuis la fin de l’année 2022, la course à l’IA générative a été largement perçue comme un duel entre nouveaux entrants spectaculaires et géants historiques pris de court. L’irruption de OpenAI a imposé un nouveau tempo, rapidement suivi par l’intégration agressive de modèles génératifs dans les produits de Microsoft. Dans ce contexte, Google a souvent été décrit comme hésitant, voire en retard, malgré des années de recherche fondamentale en apprentissage automatique et en réseaux neuronaux.
Pendant une grande partie de l’année 2023, Google a souffert d’une image de poursuivant. L’arrivée rapide de modèles conversationnels très populaires a donné l’impression que le géant de Mountain View avait perdu l’initiative, malgré son rôle historique dans la recherche en apprentissage profond. Cette lecture, largement façonnée par le calendrier médiatique, a progressivement perdu de sa pertinence à mesure que la stratégie de Google s’est clarifiée.
Google a connu quelques lancements de produits difficiles par le passé. En 2024, Google a dû arrêter son générateur d'images IA parce que les gens disaient qu'il créait des images historiquement incorrectes de personnes de couleur et qualifiaient les résultats de « trop politiquement corrects ». Google a rapidement présenté ses excuses pour ce qu’il décrit comme des « inexactitudes dans certaines représentations historiques générées par l’image » avec son outil Gemini, en disant que ses tentatives de créer une « large gamme » de résultats ont manqué la cible. Gemini est un outil d’intelligence artificielle lancé par Google qui peut créer des images en réponse à des requêtes écrites. Il a rapidement attiré des critiques, qui ont accusé l’entreprise de former le bot à être trop « woke ».
« Nous sommes conscients que Gemini propose des inexactitudes dans certaines représentations de génération d'images historiques », regrette Google dans sa déclaration publiée sur X/Twitter. « Nous travaillons à l'amélioration immédiate de ce type de représentations. La génération d'images par l'IA de Gemini génère un large éventail de personnes. Et c'est généralement une bonne chose, car des gens du monde entier l'utilisent. Mais dans le cas présent, il n'y a pas d'adéquation ». Après avoir mis l'outil en pause, le temps de retravailler dessus, il a été relancé.
Les versions précédentes de son outil de recherche IA donnaient également des conseils étranges, comme dire aux utilisateurs de mettre de la colle sur leur pizza pour empêcher le fromage de glisser.
Auparavant, le PDG de l'entreprise, Sundar Pichai, avait même déclaré que l'entreprise avait attendu pour lancer son chatbot parce qu'il n'était pas prêt. « Nous n'avions pas encore atteint un niveau où nous pouvions le commercialiser et où les gens auraient accepté que Google lance ce produit. Il présentait encore beaucoup de problèmes à l'époque », a déclaré Pichai.
Le lancement et l’évolution de Gemini ont marqué un changement de rythme. Là où les premières réponses de Google semblaient défensives, la firme a progressivement déployé un modèle plus cohérent, mieux intégré et techniquement plus ambitieux. Ce basculement n’a pas été immédiat, mais il s’est opéré de manière continue, presque imperceptible pour le grand public.
Gemini 3, le LLM qui change la donne ?
En novembre, Google a annoncé Gemini 3, un modèle d'intelligence artificielle amélioré, près de huit mois après le lancement de Gemini 2.5. La société a déclaré que sa dernière suite de modèles d'IA exigera des utilisateurs qu'ils fournissent « moins d'indications » pour obtenir les résultats souhaités. Google a également annoncé une nouvelle plateforme d'agents appelée « Google Antigravity », qui permet aux développeurs de coder « à un niveau supérieur, axé sur les tâches ».
À la suite de cette annonce, Geoffrey Hinton, le « parrain de l'IA », a récemment estimé que Google est en train de rattraper OpenAI dans la course à l'intelligence artificielle (IA). Hinton, professeur émérite à l'université de Toronto et ancien expert de Google Brain, s'est également dit surpris que Google ait mis autant de temps à dépasser ses concurrents. Dans une interview accordée à Business Insider, lorsqu'il a été question de la position de Google par rapport à OpenAI, Hinton a déclaré : « Je pense qu'il est en fait plus surprenant que Google ait mis autant de temps à dépasser OpenAI. Je pense qu'à l'heure actuelle, ils commencent à le dépasser ».
Cette déclaration fait suite au lancement très apprécié de Gemini 3 de Google, une mise à jour qui, selon de nombreux acteurs du monde technologique, a permis à l'entreprise de dépasser le GPT-5 d'OpenAI. Le modèle d'image Nano Banana Pro AI de Google a également connu un grand succès. Ce changement intervient trois ans après que Google aurait déclaré « code rouge » à la suite de la sortie initiale de ChatGPT, des rapports récents suggérant désormais que c'est OpenAI qui pourrait tirer la sonnette d'alarme.
Geoffrey Hinton affirme que Google dispose d'un avantage en matière de puces IA. Outre le lancement réussi de son tout dernier modèle d'IA, le cours de l'action Google a augmenté après que des rapports ont suggéré que l'entreprise pourrait conclure un accord d'un milliard de dollars pour fournir à Meta, la société mère de Facebook, ses propres puces IA. La création de ses propres puces est un « avantage considérable » pour Google, a fait remarquer Hinton. Il a déclaré : « Google dispose de nombreux chercheurs très compétents et, bien sûr, d'une grande quantité de données et de nombreux centres de données. Je pense que Google va gagner. »
Gemini, un modèle pensé comme une plateforme
Avec Gemini, Google n’a pas cherché à empiler un énième modèle conversationnel, mais à concevoir une architecture unifiée capable de traiter nativement texte, image, audio, vidéo et code. Contrairement à des modèles conçus initialement pour le texte puis étendus par couches successives, Gemini a été pensé dès l’origine comme multimodal.
Ce choix technique a des implications concrètes. Il permet une meilleure cohérence entre les différents types de données, une réduction des pertes d’information entre modules et une plus grande efficacité lors de tâches complexes combinant raisonnement, compréhension visuelle et génération de contenu. Dans les benchmarks académiques comme dans de nombreux tests internes, certaines versions de Gemini ont commencé à dépasser ou à égaler leurs concurrents directs sur des tâches de raisonnement avancé.
Une intégration silencieuse mais massive dans l’écosystème Google
L’un des atouts majeurs de Google réside dans son écosystème existant. Gemini n’est pas seulement un produit autonome : il est progressivement injecté dans la recherche, les outils bureautiques, le développement logiciel, la gestion des données et les services cloud. Cette diffusion progressive, souvent peu spectaculaire, contraste avec des lancements plus bruyants mais confère à Google un avantage structurel.
Là où certains acteurs doivent convaincre les utilisateurs d’adopter de nouveaux outils, Google intègre Gemini dans des usages quotidiens déjà installés. Cette approche limite les frictions, permet une collecte de retours à grande échelle et accélère l’itération des modèles dans des conditions réelles.
Des moyens industriels difficiles à égaler
Sur le plan purement industriel, Google dispose d’un avantage rarement mis en avant dans les débats publics : sa maîtrise de l’infrastructure. Entre ses centres de données, ses accélérateurs maison et son expérience dans l’optimisation à grande échelle, le groupe peut entraîner, déployer et ajuster des modèles de très grande taille sans dépendre entièrement de fournisseurs externes.
Cette autonomie réduit les coûts marginaux, sécurise les chaînes d’approvisionnement en calcul et offre une flexibilité stratégique importante à long terme. Dans une course où l’accès à la puissance de calcul devient un facteur déterminant, cet élément pèse lourdement.
Un facteur important pour Gemini 3 était la manière dont il a été entraîné : à l'aide des TPU de Google, une puce hautement spécialisée que l'entreprise développe depuis des années précisément dans ce but. Google est certes sensible à certains problèmes de fabrication et à la hausse des prix de la RAM, comme tout le monde, mais contrairement à la quasi-totalité de ses concurrents, il ne dépend pas de la chaîne d'approvisionnement de Nvidia. Google est en mesure d'optimiser l'ensemble de son système pour le rendre meilleur, plus rapide et moins cher. Personne d'autre ne dispose d'un tel contrôle complet sur son destin en matière d'IA.
Gemini va équiper la prochaine version de Siri, permettant à Apple de transformer son assistant IA
Que faire lorsque l'on dispose de la technologie nécessaire ? La présenter au public et la mettre en œuvre. Lundi, Google et Apple ont annoncé que Gemini équiperait la prochaine génération de Siri, qui sortira plus tard cette année. C'est une grande victoire pour Apple, qui dépenserait 1 milliard de dollars par an dans l'espoir de transformer Siri en un assistant IA réellement utile, pour une fois.
Pour Google, c'est tout aussi important. Le fait qu'Apple affirme qu'il s'agit de « la meilleure technologie disponible » est évidemment un signal fort pour le marché, mais plus encore, Siri devient immédiatement l'un des moyens les plus populaires d'interagir avec Gemini.
[B]Sortie de « Personnal Intelligence...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.