Google pensait offrir un coup de pouce aux élèves avec un simple bouton. Mais son « Homework Help », intégré récemment au navigateur Chrome, a rapidement tourné à la polémique. En promettant de résoudre les devoirs en un clic grâce à l’IA, la fonctionnalité a déclenché la colère de nombreux enseignants et responsables académiques, qui y voient un véritable outil de triche intégré par défaut dans l’un des logiciels les plus utilisés au monde. Sous pression, la firme de Mountain View a décidé de suspendre temporairement ce bouton. Mais cette pause ne règle en rien les interrogations de fond : quelle place l’intelligence artificielle doit-elle occuper dans l’éducation, et où se situe la frontière entre aide pédagogique et contournement des règles ?Déployé début septembre 2025, le bouton « Homework Help » s’affichait dans la barre d’adresse de Chrome dès qu’un utilisateur visitait une page liée à l’éducation : sites universitaires, plateformes de cours en ligne, exercices interactifs. En cliquant dessus, l’étudiant lançait Google Lens, capable d’analyser le contenu visible à l’écran — par exemple une équation, un QCM ou une consigne de dissertation — pour proposer instantanément une réponse via un IA Overview.
Présentée comme un prolongement naturel de la stratégie de Google visant à intégrer l’IA partout, cette fonctionnalité était censée rendre plus accessibles les capacités d’analyse et de génération de réponses déjà disponibles dans Lens et Search. Mais ce qui devait être une aide a été perçu, dans de nombreux cas, comme un raccourci vers la triche.
Une levée de boucliers dans le monde académique
À peine lancé, « Homework Help » a suscité de vives critiques. Plusieurs universités prestigieuses comme UCLA, UC Berkeley ou Emory ont alerté leurs enseignants sur la présence soudaine de ce bouton dans les navigateurs de leurs étudiants. Dans certains cas, il apparaissait même lors d’examens en ligne, faisant craindre une érosion totale de l’intégrité académique.
Des enseignants ont dénoncé un outil qui sape leur autorité et détourne les élèves du processus d’apprentissage. Ian Linkletter, bibliothécaire à l’Institut de technologie de Colombie-Britannique, n’a pas mâché ses mots : « Google place un bouton de triche directement dans le navigateur. C’est une attaque frontale contre l’intégrité académique. » Et de continuer en disant « Google tente de convaincre les enseignants de renoncer à réglementer l'utilisation de l'IA dans leurs classes, et cela pourrait fonctionner. Google Chrome détient une part de marché suffisante pour modifier le comportement des élèves, et il semble que ce soit là son objectif. »
Plusieurs autres inquiétudes se sont ajoutées : la difficulté pour les administrateurs scolaires de désactiver cette option sur les comptes personnels des étudiants, l’absence de transparence sur les critères d’apparition du bouton, et surtout le risque que des données issues de plateformes éducatives sécurisées soient envoyées vers les serveurs de Google.
Melissa Loble, directrice académique chez Instructure, l'éditeur du logiciel de cours Canvas, affirme qu'elle s'efforce d'empêcher que les aides à l'étude basées sur l'IA, telles que celles proposées par Google et ChatGPT, ne soient utilisées à des fins de tricherie. « Nous ne soutenons ni ne tolérons cet outil ou tout autre élément pouvant conduire à une malhonnêteté académique », a déclaré Loble.
Colin Horgan, porte-parole de D2L, la société à l'origine de Brightspace, un concurrent de Canvas, a ajouté : « Nous sommes heureux de voir que Google a suspendu l'extension pour le moment. Cependant, nous partageons les préoccupations soulevées par cet outil concernant l'intégrité académique et la confidentialité et la sécurité des données des étudiants. »
La défense de Google : une simple expérimentation
Confronté à cette vague de critiques, Google a annoncé qu’il suspendait temporairement le déploiement du bouton. L’entreprise assure que son intention n’était pas de favoriser la triche, mais d’explorer de nouvelles façons d’intégrer Lens dans Chrome pour simplifier la navigation.
Craig Ewer, porte-parole de la société, a précisé que Google continuerait à travailler avec des enseignants et des partenaires éducatifs pour concevoir des outils plus adaptés. La firme souligne également que les données captées par « Homework Help » ne sont pas conservées ni utilisées pour entraîner ses modèles. Mais cette justification n’a pas suffi à rassurer les sceptiques.
Un besoin urgent de garde-fous pédagogiques
Ce qui ressort de cette controverse, c’est l’absence de garde-fous clairs. L’IA dans l’éducation ne peut pas être laissée aux seuls choix des géants du numérique. Il faudrait que les outils incluent des modes différenciés : un mode « apprentissage » proposant des indices ou des explications progressives, et un mode « évaluation » où toute assistance IA est désactivée.
De la même manière, les établissements doivent avoir la main pour activer ou désactiver ces fonctions selon le contexte. Sans cela, chaque innovation risque de se transformer en champ de bataille entre enseignants et éditeurs de logiciels.
Google, un révélateur d’un malaise global
Le cas du bouton « Homework Help » n’est pas isolé. Il s’inscrit dans une tendance plus large où les technologies, conçues pour assister, se retrouvent accusées de miner des valeurs fondamentales. Les universités avaient déjà exprimé leur malaise face à l’usage intensif de ChatGPT par les...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.


Google a-t-il raison d’affirmer que seule l’IA peut corriger les risques générés par l’IA, ou s’agit-il d’un cercle vicieux technologique ?