IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les entreprises de la tech commencent à imposer l'utilisation de l'IA : les GAFAM surveillent désormais l'utilisation de l'IA par leurs employés dans le cadre des évaluations de performance

Le , par Stéphane le calme

99PARTAGES

14  0 
Les grandes entreprises technologiques ne se contentent plus d'encourager leurs salariés à adopter l'intelligence artificielle. Elles les y contraignent, sous peine de conséquences sur leurs évaluations de performance, leurs primes et leurs perspectives de promotion. Amazon, Google, Meta, Microsoft et Salesforce ont toutes franchi le pas d'un simple soutien à une véritable politique d'obligation numérique. Derrière la rhétorique de la productivité et de la compétitivité, une question fondamentale émerge : sommes-nous en train d'assister à la naissance d'un nouveau taylorisme algorithmique ?

Pendant des mois, le discours dominant dans les grandes entreprises technologiques se voulait rassurant : l'intelligence artificielle était présentée comme un outil parmi d'autres, mis à la disposition des équipes pour les aider à travailler mieux et plus vite. Les directions se félicitaient de leur approche volontariste, distribuant accès aux outils et formations, sans systématiquement brandir de menaces. Ce temps est désormais révolu.

Des entreprises technologiques allant de startups de 300 personnes aux géants comme Amazon, Google, Meta, Microsoft et Salesforce ont désormais dépassé le stade de l'encouragement à l'utilisation de l'IA : elles suivent activement l'adoption et, dans plusieurs cas, l'intègrent dans les évaluations de performance.

Le signal le plus fort est venu de Meta. La société a annoncé que « l'impact piloté par l'IA » deviendrait une attente centrale pour tous les employés à partir de 2026, s'appliquant à tous les rôles, des ingénieurs aux spécialistes marketing. La direction des ressources humaines, sous l'impulsion de Janelle Gale, responsable des équipes People de Meta, a envoyé une note interne expliquant que les employés qui atteignaient un « impact exceptionnel piloté par l'IA » seraient récompensés, tandis que ceux qui ignoreraient la technologie risquaient des évaluations défavorables. Pour accompagner ce mandat, Meta a développé un outil de gamification interne appelé « Level Up », qui récompense les salariés avec des badges au fur et à mesure qu'ils atteignent des étapes dans leur adoption de l'IA.

À ce propos, Business Insider notait en octobre :

« Chez Meta, les ingénieurs et les employés sont incités à expérimenter les chatbots grâce à des jeux et des badges. Leurs performances sont également suivies sur des tableaux de bord et, dans certains cas, comparées à des objectifs d'adoption précis. Google surveille le nombre d'heures de productivité supplémentaires que ses ingénieurs gagnent chaque semaine grâce aux outils d'IA et encourage ses employés à tester de nouveaux outils. Microsoft cherche à intégrer l'utilisation de l'IA dans les évaluations de performance. D'autres entreprises acquièrent des logiciels pour contrôler si leurs employés utilisent suffisamment l'IA.

« Pour inciter ses employés à adopter l'IA, Meta a lancé en début d'année un programme volontaire intitulé "Level Up" qui transforme l'adoption de l'IA en jeu. Ce jeu vise à familiariser les employés avec les outils d'IA et est accessible via son chatbot interne, Metamate. Les employés sont récompensés par des badges à mesure qu'ils atteignent différents niveaux d'utilisation. Trois fournisseurs de logiciels de suivi des employés ont précédemment indiqué avoir constaté une forte augmentation de la demande de suivi de l'utilisation de l'IA par les employés au cours des deux dernières années. »

Chez Amazon Web Services, l'approche est encore plus granulaire. Les responsables disposent de tableaux de bord montrant l'utilisation individuelle des outils d'IA par chaque ingénieur, et prennent en compte cette adoption lors de l'évaluation des promotions. Le système porte même un nom interne : Clarity. Google, de son côté, intègre pour la première fois cette année l'utilisation de l'IA dans les évaluations de certains ingénieurs logiciels.

« Nous utilisons la carotte et le bâton », explique Seth Besmertnik, PDG de Conductor, une startup de marketing numérique de 300 personnes. « La seule façon pour une entreprise de prospérer est que tous ses employés possèdent un haut niveau de compétences. » Début 2020, Besmertnik a commencé à intégrer l'IA aux évaluations de performance de toute son entreprise. Les employés reçoivent une note de compétences en IA de 1 à 5, la note maximale étant attribuée aux personnes qui créent des systèmes améliorant le flux de travail de leurs collègues. Il a également créé une nouvelle récompense*: la personne qui conçoit le processus le plus efficace basé sur l'IA remporte une bourse de plusieurs milliers de dollars pour des vacances.


Le retour des métriques absurdes

L'une des dimensions les plus préoccupantes de cette tendance concerne les indicateurs retenus pour mesurer l'adoption. Le nouveau système d'évaluation de la performance de Meta sera capable de suivre le nombre de lignes de code qu'un ingénieur a écrites avec l'assistance de l'IA.

Les praticiens du développement logiciel ont immédiatement reconnu l'absurdité de cette démarche. Le nombre de lignes de code comme indicateur de productivité est une idée largement discréditée depuis les années 1990. L'histoire de l'informatique regorge d'exemples célèbres : la réduction du nombre de lignes de code est souvent le signe d'une meilleure conception logicielle, pas d'un manque de travail. Chez Apple en 1982 déjà, l'ingénieur Bill Atkinson était crédité de « -2000 lignes de code » dans les rapports internes, parce qu'il avait réussi à optimiser un composant graphique de QuickDraw en supprimant du code redondant — ce qui était en réalité une performance remarquable.

En intégrant des métriques d'utilisation de l'IA basées sur la quantité de code généré, les entreprises créent mécaniquement une incitation à produire du code verbeux et inutilement volumineux. Les développeurs qui souhaitent satisfaire aux indicateurs sans réellement changer leur méthode de travail ont déjà trouvé des parades : certains utilisent les outils de génération de code comme un simple système d'auto-complétion avancé, en acceptant puis en supprimant les suggestions, ce qui suffit à gonfler les métriques sans modifier substantiellement le processus. D'autres configurent des tâches automatiques pour consommer des tokens d'API sans aucune valeur productive. La loi de Goodhart, formulée dans les années 1970 par l'économiste britannique Charles Goodhart — « quand une mesure devient un objectif, elle cesse d'être une bonne mesure » — s'applique ici avec une précision chirurgicale.

La pression sociale et la menace voilée

Au-delà des métriques, le discours des dirigeants révèle une...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de floyer
Membre éclairé https://www.developpez.com
Le 24/03/2026 à 20:31
Sur un exemple simple (page php avec accès base de données), l’IA m’a réussi à oublier de se connecter à la base de données, et me sortir une vulnérabilité SQL-injection. Il faut être attentif.
7  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 17/03/2026 à 12:42
Citation Envoyé par Alex Voir le message
En janvier, la chute de 400 milliards de dollars de Microsoft malgré de bons résultats ressemblait à un avant-goût du krach à venir de la bulle IA. Ce qui inquiète particulièrement les observateurs, c’est la dissociation croissante entre valorisations financières et réalités industrielles. Des milliards sont injectés dans des modèles et des infrastructures dont la monétisation repose souvent sur des hypothèses optimistes, voire spéculatives. L’argument de la « révolution inévitable » sert parfois de paravent à des paris risqués, rappelant les investissements « bidons » qui ont précédé l’éclatement de la bulle Internet.
Si une entreprise réussie à proposer une IA réellement révolutionnaire, alors ce sera rentable, beaucoup d'entreprises et de particuliers paieront pour avoir accès à ce service. (d'après les entreprises de l'IA, l'IA pourra peut-être remplacer des humains dans le futur)

Rien ne garantit qu'une entreprise réussira l'exploit de proposer un chatbot IA capable de faire du bon travail.
Des entreprises vont essayer jusqu'à ce qu'elles n'aient plus du tout de trésorerie.

Plus tôt l'explosion de la bulle aura lieu mieux ce sera.
Il y aurait moins de commandes de composants informatique pour les centre de données et les prix pourront baisser.
4  0 
Avatar de maltyxx
Futur Membre du Club https://www.developpez.com
Le 25/03/2026 à 21:00
Cet article résonne avec ce qu'on observe concrètement sur le terrain. Le problème fondamental n'est pas l'IA elle-même, mais l'absence totale de cadre d'évaluation adapté à la nature probabiliste de ces systèmes.

Dans nos expériences de déploiement de LLMs locaux (Mistral, Llama3), on a rapidement compris que les métriques classiques du développement logiciel — couverture de tests, vitesse d'exécution — ne mesurent pas ce qui compte vraiment : la cohérence métier des réponses, la stabilité comportementale entre les versions, et surtout la gestion des cas limites.

Ce qu'on a mis en place concrètement :
- Une validation humaine systématique sur un échantillon de sorties en production
- Des "golden datasets" métier-spécifiques pour détecter les dérives entre versions de modèles
- Une architecture locale qui garde les données sensibles hors des clouds tiers
- Un monitoring de la latence bout-en-bout pour les pipelines voix/texte en temps réel

L'IA agentique pose un problème supplémentaire : une erreur en début de chaîne se propage et s'amplifie. La supervision doit être encore plus rigoureuse qu'avec un LLM simple.

La vraie maturité du secteur viendra quand les équipes sauront dire "non" à un déploiement dont elles ne peuvent pas mesurer les risques réels. Et ça, aucun cabinet de conseil ne le facture.
4  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 26/03/2026 à 8:18
Citation Envoyé par Mathis Lucas Voir le message
Sur les 195,7 milliards de dollars de revenus du segment des centres de données de Nvidia en 2026, 135 milliards de dollars concernent le marché américain, mais 44 milliards de dollars de ce matériel restent stockés et non installés. La raison en est que la construction de centres de données est un processus "glacial" comparé à la vitesse des cycles de vente de matériel, avec des projets qui prennent souvent deux à quatre ans pour être finalisés.
Il y a moyen qu'une entreprises de l'IA fasse faillite avant que son centre de données soit construit.

Citation Envoyé par Mathis Lucas Voir le message
Les centres de données mettent à rude épreuve les réseaux électriques. Les centres de données nécessitent une alimentation électrique 24 heures sur 24 à des niveaux qui rivalisent avec, voire dépassent, les besoins de petites villes. Mais la construction de nouvelles infrastructures de transport et de production nécessite des années de procédures d’autorisation, d’acquisition de terrains, de gestion de la chaîne d’approvisionnement et de travaux.
On va nous soûler avec l'IA pendant encore des années et des années...
En 2032 on en sera probablement au même point, avec les mêmes articles :
- ce que produit l'IA n'est pas terrible
- les entreprises d'IA ne sont pas rentable
- les centres de données consomment trop de ressources
- la bulle de l'IA est bien pire que la bulle Internet
- OpenAI va encore un peu plus mal (si OpenAI est toujours vivant en 2032)

Et les entreprises de l'IA seront toujours en train d'y croire "notre solution va bientôt atteindre un stade qui fera qu'elle révolutionnera le monde".
D'un autre côté, peut-être qu'à force plus personne ne fera attention aux articles concernant l'IA. (je pense qu'il y a des gens qui ont déjà commencé à ignorer les articles en lien avec l'IA)
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 26/03/2026 à 10:15
Quand dans le nom lui-même ("Intelligence Artificielle" qui n'a rien d'intelligent) il y a tromperie comment pourrait-il en être autrement?

A noter que tous le concept respire le mensonge et la malversation:

1. Les IA ont volé les données en ne respectant pas les droits d'auteur

2. Les IA trompent les clients en offrant des services pour un coût qui ne couvrent pas leur usage (si tu dis "on vous propose un voyage sur la lune pour un billet de 100 euro", il y aura plein de candidats. Maintenant si tu dis "on vous propose un voyage sur la lune mais il faut payer le coût réel de plusieurs milliards d'euro", il n'y a plus personne!)

3. Le succès économique des promoteurs de l'IA est lui-même basé sur une escroquerie nommée "valorisation circulaire": "Je te donne 1 milliard, tu me donnes 1 milliard? On est tous les 2 riches de 1 milliard et on se dit valorisé à hauteur de 100, 1000 ou 100 000 milliards!

4. Les réponses de l'IA se basent sur la tromperie: Ne jamais dire "je sais pas" (quand l'IA n'a pas de réponse, elle invente une réponse!), les algorithmes sont optimisés pour que l'IA réponde à l'humain comme un humain (45% des utilisateurs actuels de l'IA l'utilise comme un support émotionnel, un ami, un conseiller, un psychiatre, un être vivant à qui on peut parler de ses peines et obtenir des conseils de vie), etc...

5. L'IA, c'est un système qui fonctionne mal (entre 10 et 30% d'hallucination)... Question: Qui accepterait que sa voiture ne démarre pas dans 10% des cas?
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 11/03/2026 à 11:12
Un PDG sur quatre admet que l'IA est une bulle spéculative, mais continuera d'investir massivement dans la technologie
A première vue, cela peut paraître suicidaire, mais pas du tout...

Pour la simple et bonne raison que les PDG en question ne risquent pas leur propre argent, ils jouent au casino avec l'argent des actionnaires, si ils gagnent, ils recevront un très gros bonus... Si ils perdent... Pas grave, ils auront déjà quitté l'entreprise pour une autre!

C'est le parfait exemple des dérives du capitalisme poussé à l'extrême, les PDG d'aujourd'hui ne sont rien d'autres que des mercenaires, des chasseurs de prime qui réfléchissent le développement de l'entreprise de 3 mois en 3 mois... Il faut présenter des résultats mirifiques sur le court terme même si cela tue l'entreprise après leur départ...

Si on veut illustrer la pratique, il nous suffit de regarder le jeu des chaises musicales au poste de directeur général d'une entreprise française emblématique comme Renault:

François Provost (Juillet 2025 - Présent)
Duncan Minto (Intérim, Juillet 2025)
Luca de Meo (2020 - Juillet 2025)
Clotilde Delbos (Intérim, 2019-2020)
Thierry Bolloré (2018-2019)

Comment est-ce qu'un directeur général d'une entreprise de la grosseur et de la complexité de Renault pourrait en moins de 1 année connaître l'entreprise qu'il doit gérer et y apporter quoique ce soit de positif par ses décisions???
3  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 11/03/2026 à 13:30
Citation Envoyé par azias Voir le message
En fait tu es en train de nous expliquer que certains PDG de grandes entreprises sont finalement devenus de simples salariés...
Un simple salarié ne décide pas du devenir de l'entreprise qui l'emploie... un PDG de grandes entreprises oui...

Un PDG de grandes entreprises n'est que partiellement un "salarié" (puisqu'il touche une partie de sa rémunération sous forme de salaire) et même si il est rarement le propriétaire de l'entreprise qu'il gère (à l'inverse d'une PME qui est la plupart du temps dirigée par son fondateur et propriétaire ou par ses héritiers), son salaire fixe ne pèse rien par rapport aux bonus qu'il reçoit sur la base des résultats à courts termes qu'il présente.

Exemple: Vasant Narasimhan, le boss de la multinationale Novartis, géant du médicament, avait en 2024 un salaire annuel fixe de 1,86 millions... Mais sa rémunération totale s'est élevé à... 19,2 millions... La différence entre 19,2 et 1,86 millions correspond aux bonus et actions qu'ils a reçu en plus de son salaire

Inutile de préciser que lorsque tu peux multiplier par 10 ta rémunération (de 2 à 20 millions) sur la seule base des résultats obtenus sur 12 mois, tu vas pas te dire "Houlala, pour le bien de l'entreprise sur les 10 prochaines années, je vais prendre une décision qui est bonne à long terme mais qui ne va pas fournir immédiatement un résultat à court terme"
3  0 
Avatar de JPLAROCHE
Membre expérimenté https://www.developpez.com
Le 24/03/2026 à 20:07
Je ne peux que confirmer ce qui est écrit dans cet article:

J'utilise l'IA, mais combien de fois, je suis obligé de lui dire de se concentrer sur le sujet et la demande, parce que l'IA est très bavarde, bref beaucoup de temps perdu, pourquoi parce que tu es obligé de prendre en compte ce qu'il dit pour voir le résultat...
Puis, tu es enjoint de faire des coupes dans la solution, je dirais plutôt les solutions proposées, et comme il est écrit dans l'article, tu t'apercevras qu'il se peut que des solutions puissent ne pas répondre aux problèmes posés, encore du temps de perdue, mais surtout t'amener à casser du code. Résultat à vouloir trop bien faire ...

Alors pourquoi j'utilise l'IA, je le prends pour un livre que je consulte. Là est sa richesse, en exemple et en information, on peut lui dire en lui donnant les liens quand sa connaissance ne prend pas d'office la dernière mise à jour par exemple Neovim ou Rust, et l'on peut le voir réagir.

Souvent l'IA cherche à vous montrer qu'il sait et qu'il est capable de vous donner la solution, Là aussi la dérive peut être cinglante.
Dernière critique il m'est arrivé que l'IA ne puisse pas répondre et là, il plante la confusion devient flagrante. Jusqu'à présent une fois, mais trois jours de perdu.

Il y a aussi un truc qui ne me plaît pas, il mémorise certaine chose de votre discutions et parfois, c'est erroné et tu lui fais la remarque, mais il ne la prend pas en compte ???

Il y a eu aussi un truc bizarre un jour, j'ai dit que je n'étais pas comptant et alors, il m'a été posé par un questionnaire, je lui ai précisé pourquoi, l'attitude de l'IA a changé, c'en était drôle à croire qu'elle était fâchée...

Une chose est sûre, c'est que l'IA pour coder HUMMMM..... avec des pincettes, car codée demande des précisions à la virgule près et bien souvent fait appel à la prise en charge de module externe (même si vous fournissez lesdits modules)

ma conclusion l'IA reste une formidable bibliothèque riche avec des exemples, mais n'invente rien, plus facile qu'avec un livre (quoique je fasse partie de la vieille génération et rien pour le moment ne remplace le livre) , oui, mais j'aurai dû dire des livres et je peux passer du Rust à Zig et Lua ou Python et finir en C là, elle est imbattable.
3  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 26/03/2026 à 14:17
à tous,

Rien ne n'étonne dans cet article, et dès le début de la "Hype" IA, cela sentait le mensonge assez fortement. L'IA, ça n'existe pas. C'est juste un algorithme qui sur base de statistiques et d'anciens code (dans le cas de la programmation), ne peut que donner de faux espoirs. Il faut être aveugle pour ne pas voir que cette "Hype" de l'IA, n'est qu'une "Hype" de plus dans le domaine technologique.

Comme toutes les "Hype", il en restera un "subset" et quelques cas "pratiques", mais certainement pas dans le domaine du développement. Le développement, ce n'est pas "chercher l'instruction suivante", ce que fait l'IA. Il y a tout un contexte, et ce contexte est difficilement explicable à une IA, car on se focalise en se moment sur ce que "génère" l'IA, sans trop se préoccupé de "comment" elle comprend ou interprète les "demandes". ces même "demandes", ont a déjà maintenant difficile de les obtenir du "client", il en résulte un "va et viens" permanent qui ne peut être "compréhensible" pour l'IA via un simple "prompt", car le "contexte" du "pourquoi" on lui demande quelque choses, elle ne le connait pas.

Les "vraies" révolutions sont rares, et ne "sortent pas" et ne se généralisent pas en qlq mois. L'IA est néfaste et toxique, tout ce qui est construit via des "prompts" par une "IA" devient avec le temps, une "base de code" incompréhensible, démesurée, et non maintenable sur la durée. C'est tout le contraire de ce qu'est le développement.

Je suis peut-être à contre courant de la "pensée" unique qu'on tente d'imposer dans le récit de "l'IA, c'est magique", mais tant pis, c'est mon avis, il n'engage que moi.

Ce qui malheureux, c'est que cet écran de fumée va freiner certains a s'engager dans le métier, qui n'est pas près de disparaître. Il y'a des licenciements massif actuellement, certes, mais dans quelques années, lorsque cet "Hype" sera passée, que l'on retombera les pieds sur terre, il n'y aura pas assez de développeurs compétents. Les seniors seront parti (en retraite ou virés), les juniors n'auront pas eu de bonne formation, et cela aura des répercutions.

Je me trompe peut-être, mais plus vite cette "Hype" sera passée, mieux ce sera. Ceux qui tirent actuellement profit de l'IA verront ces même profits partir aussi vite qu'ils sont arrivés.

La "magie" n'existe pas, on sait tous qu'il y'a un "truc" derrière, c'est pareil avec l'IA, un mensonge, une tromperie, en plus d'un vol qui semble n'émouvoir personne. Les "magiciens" gardent jalousement leurs secrets, ce n'est pas pour rien. Sans ces "secrets", ils disparaissent...

BàV et Peace & Love.
4  1 
Avatar de pyros
Membre expérimenté https://www.developpez.com
Le 26/03/2026 à 14:32
L'IA n'en est qu'à son balbutiement, elle est très loin d'atteindre sa forme finale, attendez 6, 7 ans, elle sera probablement meilleure.
Le problème est que justement, pas vraiment. Cela fait 1 ou 2 ans que les LLM ont atteint un plateau. L'architecture actuelle ne scale plus. Innutile de créer des model plus gros ou des centre de calcule plus puissant, il s'agit d'un problem fondamental, pas d'un probleme de taille de model.
Il y a aussi un autre problème pour le moment insolvable, c'est que les donnée de bonne qualitée manque et les donnée disponible sont de plus en plus pollué. Entrainer une IA sur des donnée générée dégrade les performances.

Pour finir, le principe même d'apprentissage bassé sur une quantité astronomique de donné fait qu'un IA ne peut être au mieu que "moyenne". Par ex, en donnant à manger à une IA toute la base de codé écrite par des humains, indépendament de leur qualité, elle deviendra un développeur moyen. Moyen en tout, certe, mais moyen quand même.
3  0