IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Google suspend son bouton IA « Homework Help » dans Chrome, accusé de favoriser la tricherie en proposant instantanément des réponses aux devoirs affichés sur l'écran via un IA Overview

Le , par Stéphane le calme

5PARTAGES

5  0 
Google suspend son bouton IA « Homework Help » dans Chrome
accusé de favoriser la tricherie en proposant instantanément des réponses aux devoirs affichés sur l'écran via un IA Overview

Google pensait offrir un coup de pouce aux élèves avec un simple bouton. Mais son « Homework Help », intégré récemment au navigateur Chrome, a rapidement tourné à la polémique. En promettant de résoudre les devoirs en un clic grâce à l’IA, la fonctionnalité a déclenché la colère de nombreux enseignants et responsables académiques, qui y voient un véritable outil de triche intégré par défaut dans l’un des logiciels les plus utilisés au monde. Sous pression, la firme de Mountain View a décidé de suspendre temporairement ce bouton. Mais cette pause ne règle en rien les interrogations de fond : quelle place l’intelligence artificielle doit-elle occuper dans l’éducation, et où se situe la frontière entre aide pédagogique et contournement des règles ?

Déployé début septembre 2025, le bouton « Homework Help » s’affichait dans la barre d’adresse de Chrome dès qu’un utilisateur visitait une page liée à l’éducation : sites universitaires, plateformes de cours en ligne, exercices interactifs. En cliquant dessus, l’étudiant lançait Google Lens, capable d’analyser le contenu visible à l’écran — par exemple une équation, un QCM ou une consigne de dissertation — pour proposer instantanément une réponse via un IA Overview.

Présentée comme un prolongement naturel de la stratégie de Google visant à intégrer l’IA partout, cette fonctionnalité était censée rendre plus accessibles les capacités d’analyse et de génération de réponses déjà disponibles dans Lens et Search. Mais ce qui devait être une aide a été perçu, dans de nombreux cas, comme un raccourci vers la triche.

Une levée de boucliers dans le monde académique

À peine lancé, « Homework Help » a suscité de vives critiques. Plusieurs universités prestigieuses comme UCLA, UC Berkeley ou Emory ont alerté leurs enseignants sur la présence soudaine de ce bouton dans les navigateurs de leurs étudiants. Dans certains cas, il apparaissait même lors d’examens en ligne, faisant craindre une érosion totale de l’intégrité académique.

Des enseignants ont dénoncé un outil qui sape leur autorité et détourne les élèves du processus d’apprentissage. Ian Linkletter, bibliothécaire à l’Institut de technologie de Colombie-Britannique, n’a pas mâché ses mots : « Google place un bouton de triche directement dans le navigateur. C’est une attaque frontale contre l’intégrité académique. » Et de continuer en disant « Google tente de convaincre les enseignants de renoncer à réglementer l'utilisation de l'IA dans leurs classes, et cela pourrait fonctionner. Google Chrome détient une part de marché suffisante pour modifier le comportement des élèves, et il semble que ce soit là son objectif. »

Plusieurs autres inquiétudes se sont ajoutées : la difficulté pour les administrateurs scolaires de désactiver cette option sur les comptes personnels des étudiants, l’absence de transparence sur les critères d’apparition du bouton, et surtout le risque que des données issues de plateformes éducatives sécurisées soient envoyées vers les serveurs de Google.

Melissa Loble, directrice académique chez Instructure, l'éditeur du logiciel de cours Canvas, affirme qu'elle s'efforce d'empêcher que les aides à l'étude basées sur l'IA, telles que celles proposées par Google et ChatGPT, ne soient utilisées à des fins de tricherie. « Nous ne soutenons ni ne tolérons cet outil ou tout autre élément pouvant conduire à une malhonnêteté académique », a déclaré Loble.

Colin Horgan, porte-parole de D2L, la société à l'origine de Brightspace, un concurrent de Canvas, a ajouté : « Nous sommes heureux de voir que Google a suspendu l'extension pour le moment. Cependant, nous partageons les préoccupations soulevées par cet outil concernant l'intégrité académique et la confidentialité et la sécurité des données des étudiants. »


La défense de Google : une simple expérimentation

Confronté à cette vague de critiques, Google a annoncé qu’il suspendait temporairement le déploiement du bouton. L’entreprise assure que son intention n’était pas de favoriser la triche, mais d’explorer de nouvelles façons d’intégrer Lens dans Chrome pour simplifier la navigation.

Craig Ewer, porte-parole de la société, a précisé que Google continuerait à travailler avec des enseignants et des partenaires éducatifs pour concevoir des outils plus adaptés. La firme souligne également que les données captées par « Homework Help » ne sont pas conservées ni utilisées pour entraîner ses modèles. Mais cette justification n’a pas suffi à rassurer les sceptiques.

Un besoin urgent de garde-fous pédagogiques

Ce qui ressort de cette controverse, c’est l’absence de garde-fous clairs. L’IA dans l’éducation ne peut pas être laissée aux seuls choix des géants du numérique. Il faudrait que les outils incluent des modes différenciés : un mode « apprentissage » proposant des indices ou des explications progressives, et un mode « évaluation » où toute assistance IA est désactivée.

De la même manière, les établissements doivent avoir la main pour activer ou désactiver ces fonctions selon le contexte. Sans cela, chaque innovation risque de se transformer en champ de bataille entre enseignants et éditeurs de logiciels.

Google, un révélateur d’un malaise global

Le cas du bouton « Homework Help » n’est pas isolé. Il s’inscrit dans une tendance plus large où les technologies, conçues pour assister, se retrouvent accusées de miner des valeurs fondamentales. Les universités avaient déjà exprimé leur malaise face à l’usage intensif de ChatGPT par les étudiants pour rédiger des dissertations. Ici, l’irruption directe dans Chrome a fait exploser la controverse.

La suspension annoncée par Google est donc un signal : la société reconnaît que la technologie ne peut pas s’imposer sans tenir compte des contextes sociaux et éducatifs. Mais il est probable que l’entreprise n’abandonne pas l’idée. Elle reviendra avec une version « améliorée », mieux encadrée — et plus acceptable politiquement.

Qui dirige les salles de classe, les enseignants ou les entreprises technologiques ?

Le bouton d'aide aux devoirs de Chrome n'est pas le premier outil d'IA à perturber les enseignants. Depuis l'arrivée de ChatGPT il y a près de trois ans, les élèves l'utilisent à la fois pour tricher et comme ressource pour faire des recherches ou réfléchir. Cela a suscité une réflexion sur le rôle de l'éducation dans un monde dominé par l'IA, et a également donné naissance à une industrie d'outils permettant de détecter la tricherie générée par l'IA. Il existe désormais des outils IA dédiés, tels que Cluely, qui aident les utilisateurs à « tricher dans tous les domaines ». De nouveaux navigateurs web IA tentent également d'attirer les jeunes utilisateurs en leur promettant d'avoir toujours l'IA à portée de main.

Selon le Pew Research Center, à l'automne dernier, 26 % des adolescents américains âgés de 13 à 17 ans déclaraient utiliser ChatGPT pour leurs devoirs scolaires. C'est deux fois plus qu'en 2023. De son côté, OpenAI a indiqué que plus de 10 % de toutes les requêtes ChatGPT effectuées par des personnes de plus de 18 ans concernaient le tutorat ou l'enseignement.

Google affirme que sa fonction Lens fait depuis longtemps partie du navigateur Chrome, permettant aux utilisateurs de rechercher des images et du texte directement sur les pages web. Plus tôt cette année, Google a également ajouté un bouton à Chrome pour lancer son chatbot Gemini, qui peut également voir ce qui s'affiche sur l'écran d'un utilisateur.

Mais selon les enseignants, le bouton d'aide aux devoirs dépasse les limites, car il s'adresse aux élèves et normalise l'utilisation de l'IA dans un domaine où elle n'a pas sa place. Plusieurs enseignants ont montré comment il fournit des réponses basées sur l'IA pendant les quiz, où les élèves pourraient même supposer qu'il s'agit d'une partie officiellement approuvée du cours. Ignorer un outil qui offre des réponses faciles peut nécessiter une grande maîtrise de soi, ce qui fait souvent défaut aux élèves stressés.

Autre sujet de préoccupation : l'utilisation de cet outil pourrait entraîner l'envoi de données provenant d'un site web privé dédié à un cours vers Google. « Capturer des données provenant d'un site protégé par mot de passe est à la fois irresponsable et contraire à l'éthique », déclare Sage Freeman, vice-doyen du Chemeketa Community College à Salem, dans l'Oregon. Pour sa part, Google a assuré ne conserver actuellement aucune donnée au-delà du stockage temporaire nécessaire au traitement de la requête spécifique, et qu'aucune donnée n'était utilisée pour entraîner son IA.


OpenAI a lancé le « Mode Étudier » sur ChatGPT pour favoriser la pensée critique des élèves

OpenAI a annoncé fièrement le lancement de son nouveau « Mode Étudier » pour ChatGPT, présenté comme une innovation majeure destinée à transformer la manière dont les étudiants interagissent avec l’intelligence artificielle. Pensé pour favoriser l’apprentissage actif, la pensée critique et la participation intellectuelle, ce mode se distingue par une approche pédagogique plus engageante : au lieu de livrer des réponses toutes faites, l’IA interroge, guide, et encourage la réflexion autonome.

Mais derrière cette volonté affichée de « responsabilisation pédagogique », plusieurs voix s’élèvent pour dénoncer un effet d’annonce masquant une complexité bien plus profonde : celle des rapports ambigus entre l’IA, l’école, les institutions et les logiques de marché. Car si le « Mode Étudier » peut sembler salutaire à court terme, il ne s’attaque ni aux causes profondes des dérives actuelles, ni aux failles systémiques de l’éducation à l’ère de l’IA.

Le lancement du « Mode Étudier » intervient dans un contexte de crise éducative amplifiée par l'IA générative. Depuis l’explosion de ChatGPT en 2022, de nombreux enseignants ont observé une montée en flèche des cas de tricherie académique, des devoirs rédigés intégralement par IA, et une dépendance croissante aux réponses automatisées au détriment de la compréhension personnelle.

OpenAI, à l’instar d’autres grandes entreprises du secteur, a longtemps répondu à ces préoccupations par des avertissements généraux et la mise en place de détecteurs de texte IA peu fiables. Le « Mode Étudier » semble être la première tentative sérieuse de repenser l’interaction entre étudiants et IA sous un prisme pédagogique. Pour autant, cette tentative soulève une question fondamentale : peut-on réparer un problème que l’on a soi-même provoqué tout en en tirant profit ?

The Guardian souligne avec justesse ce paradoxe : OpenAI se présente aujourd’hui en défenseur d’un usage vertueux de l’IA à l’école, alors même que ses outils ont bouleversé les règles du jeu en matière d’évaluation, d’autonomie intellectuelle et de rapport au savoir. Le « Mode Étudier » agit ainsi comme un correctif partiel, mais non comme une remise en question globale du rôle de l’IA dans le système éducatif.


Vers quel futur pour l’IA éducative ?

Cette affaire ouvre des questions essentielles. Les géants du numérique doivent-ils être ceux qui définissent la pédagogie du futur ? Peut-on confier à une entreprise privée la tâche de réinventer la manière dont les jeunes apprennent, sans un cadre éthique et politique solide ?

L’IA pourrait être un formidable outil de démocratisation du savoir si elle est utilisée pour expliquer, accompagner, stimuler la curiosité. Mais si elle devient un raccourci qui dispense de l’effort intellectuel, elle risque de fragiliser durablement la qualité de l’éducation.

Conclusion : un simple bouton, un immense débat

La mise en pause du bouton « Homework Help » ne marque pas la fin de l’histoire. Elle révèle surtout que l’introduction de l’IA dans l’éducation ne pourra pas se faire par défaut, sans dialogue. Google a ouvert une boîte de Pandore en pensant simplifier la vie des étudiants. Il a en réalité rappelé que l’école n’est pas qu’une affaire d’efficacité : c’est aussi un espace où l’effort, la réflexion et l’intégrité comptent plus que les réponses rapides.

Si les écoles peuvent désactiver cet outil via les comptes Google for Education, cette option n'est pas très utile dans les universités, où les étudiants utilisent souvent leurs appareils personnels. « Je trouve incroyable que Google qualifie cette mesure de "soutien au processus d'apprentissage" », a déclaré Brandon Cooke, professeur de philosophie à l'université d'État du Minnesota à Mankato. « Je préférerais de loin que les étudiants viennent me demander de l'aide plutôt que de faire cavalier seul. »

Sources : Pew Research Center, Instructure

Et vous ?

Une entreprise privée comme Google doit-elle avoir le pouvoir de définir la manière dont les étudiants accèdent à l’information et s’aident dans leurs devoirs ?

Où tracer la frontière entre un outil pédagogique utile et un instrument de triche ?

Les universités et écoles devraient-elles avoir un droit de regard obligatoire sur l’activation ou non de ces fonctionnalités dans leurs environnements numériques ?

Comment garantir que ces outils respectent la vie privée des étudiants et ne transmettent pas de données sensibles à des tiers ?

Faut-il envisager des versions « bridées » de l’IA en milieu scolaire, qui privilégient l’explication et l’accompagnement plutôt que la génération de réponses directes ?

Les enseignants devraient-ils être davantage impliqués dans la conception et le test de ces outils pour éviter de futurs dérapages ?
Vous avez lu gratuitement 294 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !