IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les entreprises de la tech commencent à imposer l'utilisation de l'IA : les GAFAM surveillent désormais l'utilisation de l'IA par leurs employés dans le cadre des évaluations de performance

Le , par Stéphane le calme

24PARTAGES

13  0 
Les grandes entreprises technologiques ne se contentent plus d'encourager leurs salariés à adopter l'intelligence artificielle. Elles les y contraignent, sous peine de conséquences sur leurs évaluations de performance, leurs primes et leurs perspectives de promotion. Amazon, Google, Meta, Microsoft et Salesforce ont toutes franchi le pas d'un simple soutien à une véritable politique d'obligation numérique. Derrière la rhétorique de la productivité et de la compétitivité, une question fondamentale émerge : sommes-nous en train d'assister à la naissance d'un nouveau taylorisme algorithmique ?

Pendant des mois, le discours dominant dans les grandes entreprises technologiques se voulait rassurant : l'intelligence artificielle était présentée comme un outil parmi d'autres, mis à la disposition des équipes pour les aider à travailler mieux et plus vite. Les directions se félicitaient de leur approche volontariste, distribuant accès aux outils et formations, sans systématiquement brandir de menaces. Ce temps est désormais révolu.

Des entreprises technologiques allant de startups de 300 personnes aux géants comme Amazon, Google, Meta, Microsoft et Salesforce ont désormais dépassé le stade de l'encouragement à l'utilisation de l'IA : elles suivent activement l'adoption et, dans plusieurs cas, l'intègrent dans les évaluations de performance.

Le signal le plus fort est venu de Meta. La société a annoncé que « l'impact piloté par l'IA » deviendrait une attente centrale pour tous les employés à partir de 2026, s'appliquant à tous les rôles, des ingénieurs aux spécialistes marketing. La direction des ressources humaines, sous l'impulsion de Janelle Gale, responsable des équipes People de Meta, a envoyé une note interne expliquant que les employés qui atteignaient un « impact exceptionnel piloté par l'IA » seraient récompensés, tandis que ceux qui ignoreraient la technologie risquaient des évaluations défavorables. Pour accompagner ce mandat, Meta a développé un outil de gamification interne appelé « Level Up », qui récompense les salariés avec des badges au fur et à mesure qu'ils atteignent des étapes dans leur adoption de l'IA.

À ce propos, Business Insider notait en octobre :

« Chez Meta, les ingénieurs et les employés sont incités à expérimenter les chatbots grâce à des jeux et des badges. Leurs performances sont également suivies sur des tableaux de bord et, dans certains cas, comparées à des objectifs d'adoption précis. Google surveille le nombre d'heures de productivité supplémentaires que ses ingénieurs gagnent chaque semaine grâce aux outils d'IA et encourage ses employés à tester de nouveaux outils. Microsoft cherche à intégrer l'utilisation de l'IA dans les évaluations de performance. D'autres entreprises acquièrent des logiciels pour contrôler si leurs employés utilisent suffisamment l'IA.

« Pour inciter ses employés à adopter l'IA, Meta a lancé en début d'année un programme volontaire intitulé "Level Up" qui transforme l'adoption de l'IA en jeu. Ce jeu vise à familiariser les employés avec les outils d'IA et est accessible via son chatbot interne, Metamate. Les employés sont récompensés par des badges à mesure qu'ils atteignent différents niveaux d'utilisation. Trois fournisseurs de logiciels de suivi des employés ont précédemment indiqué avoir constaté une forte augmentation de la demande de suivi de l'utilisation de l'IA par les employés au cours des deux dernières années. »

Chez Amazon Web Services, l'approche est encore plus granulaire. Les responsables disposent de tableaux de bord montrant l'utilisation individuelle des outils d'IA par chaque ingénieur, et prennent en compte cette adoption lors de l'évaluation des promotions. Le système porte même un nom interne : Clarity. Google, de son côté, intègre pour la première fois cette année l'utilisation de l'IA dans les évaluations de certains ingénieurs logiciels.

« Nous utilisons la carotte et le bâton », explique Seth Besmertnik, PDG de Conductor, une startup de marketing numérique de 300 personnes. « La seule façon pour une entreprise de prospérer est que tous ses employés possèdent un haut niveau de compétences. » Début 2020, Besmertnik a commencé à intégrer l'IA aux évaluations de performance de toute son entreprise. Les employés reçoivent une note de compétences en IA de 1 à 5, la note maximale étant attribuée aux personnes qui créent des systèmes améliorant le flux de travail de leurs collègues. Il a également créé une nouvelle récompense*: la personne qui conçoit le processus le plus efficace basé sur l'IA remporte une bourse de plusieurs milliers de dollars pour des vacances.


Le retour des métriques absurdes

L'une des dimensions les plus préoccupantes de cette tendance concerne les indicateurs retenus pour mesurer l'adoption. Le nouveau système d'évaluation de la performance de Meta sera capable de suivre le nombre de lignes de code qu'un ingénieur a écrites avec l'assistance de l'IA.

Les praticiens du développement logiciel ont immédiatement reconnu l'absurdité de cette démarche. Le nombre de lignes de code comme indicateur de productivité est une idée largement discréditée depuis les années 1990. L'histoire de l'informatique regorge d'exemples célèbres : la réduction du nombre de lignes de code est souvent le signe d'une meilleure conception logicielle, pas d'un manque de travail. Chez Apple en 1982 déjà, l'ingénieur Bill Atkinson était crédité de « -2000 lignes de code » dans les rapports internes, parce qu'il avait réussi à optimiser un composant graphique de QuickDraw en supprimant du code redondant — ce qui était en réalité une performance remarquable.

En intégrant des métriques d'utilisation de l'IA basées sur la quantité de code généré, les entreprises créent mécaniquement une incitation à produire du code verbeux et inutilement volumineux. Les développeurs qui souhaitent satisfaire aux indicateurs sans réellement changer leur méthode de travail ont déjà trouvé des parades : certains utilisent les outils de génération de code comme un simple système d'auto-complétion avancé, en acceptant puis en supprimant les suggestions, ce qui suffit à gonfler les métriques sans modifier substantiellement le processus. D'autres configurent des tâches automatiques pour consommer des tokens d'API sans aucune valeur productive. La loi de Goodhart, formulée dans les années 1970 par l'économiste britannique Charles Goodhart — « quand une mesure devient un objectif, elle cesse d'être une bonne mesure » — s'applique ici avec une précision chirurgicale.

La pression sociale et la menace voilée

Au-delà des métriques, le discours des dirigeants révèle une...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !