
Hanneke Faber, première femme à la tête de Logitech, n’a pas peur d’explorer les zones d’ombre de la transformation numérique. Lors de son intervention, elle a déclaré qu’elle serait « ouverte à l’idée qu’un agent d’intelligence artificielle rejoigne le conseil d’administration de Logitech ». L’entreprise suisse, connue pour ses périphériques informatiques et son savoir-faire dans les interfaces entre humains et machines, se positionne ainsi à la croisée d’un débat sociétal et économique : celui du rôle que les intelligences artificielles pourraient jouer dans la gouvernance des grandes entreprises.
Selon Faber, un AI board member pourrait offrir une perspective radicalement différente, reposant sur des volumes de données et des analyses prédictives inaccessibles à un cerveau humain. Ce ne serait pas, dit-elle, une question de remplacement mais de complémentarité. L’IA, bien entraînée et encadrée, pourrait aider les administrateurs à anticiper les tendances, identifier les biais cognitifs et tester différents scénarios stratégiques avant qu’une décision soit prise.
Un symbole fort dans un climat de défiance technologique
L'IA est là pour aider : elle rationalise la productivité et permet aux entreprises et à leurs dirigeants de collecter et de synthétiser les informations plus rapidement. C'est pourquoi Hanneke Faber, PDG de la société mondiale de fabrication de technologies Logitech, s'est dite ouverte à l'idée d'avoir un membre du conseil d'administration alimenté par l'IA.
L’annonce intervient dans un contexte où la plupart des géants de la tech sont scrutés pour leur utilisation de l’intelligence artificielle. Tandis que certains, comme OpenAI ou Meta, multiplient les intégrations de modèles génératifs dans leurs produits, Logitech explore un territoire plus institutionnel : celui de la gouvernance d’entreprise.
Ce positionnement traduit une évolution subtile mais déterminante : après avoir conquis les métiers, l’IA cherche à s’inviter dans les structures de pouvoir. Logitech, société fondée sur la convergence entre design, ergonomie et innovation logicielle, devient ainsi un laboratoire pour tester les limites de la « démocratie algorithmique » au sein du capitalisme globalisé.
Pour Faber, ce n’est pas un coup de communication : c’est une expérimentation philosophique et organisationnelle. Elle insiste sur la nécessité de maintenir la responsabilité humaine au sommet, tout en reconnaissant que certaines décisions peuvent être mieux informées par la machine.
« Nous utilisons déjà [des agents IA] dans presque toutes les réunions », a déclaré Faber lundi lors du Fortune Most Powerful Women Summit à Washington, D.C. Elle a déclaré que les agents IA actuels (tels que Microsoft Copilot et les bots internes) se chargent principalement de la synthèse et de la génération d'idées, mais que cela devrait changer en raison du rythme auquel la technologie évolue.
« À mesure qu'ils évoluent, et certains des meilleurs agents ou assistants que nous avons créés font réellement des choses par eux-mêmes, cela s'accompagne de toute une série de questions de gouvernance », a déclaré Faber. « Vous devez garder à l'esprit et vous assurer que vous voulez vraiment que ce bot agisse. Mais si vous n'avez pas d'agent IA à chaque réunion, vous passez à côté d'une partie de la productivité. »
« Ce bot a accès à tout en temps réel », a-t-elle poursuivi.
Reshema Kemps-Polanco, vice-présidente exécutive et directrice commerciale de la société pharmaceutique mondiale Novartis, a également déclaré qu'elle formait un robot IA pour aider à mener à bien un « lancement commercial très rigoureux ». Le robot est formé pour évaluer le plan de lancement de l'équipe et devient « de plus en plus intelligent » dans ses questions stratégiques, a-t-elle déclaré.
« Il est formé pour rechercher les lacunes dans le plan », a déclaré Kemps-Polanco lors d'une session intitulée « Dissecting the Global Economy » (Analyse de l'économie mondiale), présentée par Novartis. « Dans quelques cas, il a en fait trouvé deux ou trois éléments que j'aurais pu manquer, des éléments qui apporteraient une valeur ajoutée. »
Hanneke Faber
L'importance des données
D'autres participants ont souligné que l'efficacité de l'IA dépendait de la qualité des données utilisées pour l'entraîner.
« Si les données sont mauvaises, les résultats le seront aussi », a déclaré Andrea Calise, présidente de la stratégie et de la communication pour les États-Unis chez Teneo, un cabinet de conseil international. « Nous créons essentiellement des parties prenantes synthétiques pour comprendre les parties prenantes » en utilisant l'IA pour obtenir et comprendre les données ».
Tracey Massey, directrice des opérations de la société d'intelligence consommateur NIQ, a déclaré que l'obtention et l'utilisation de données erronées peuvent coûter très cher. « Il est primordial de disposer de données de très bonne qualité », a-t-elle déclaré. « C'est ensuite que l'on construit l'analyse. »
Cela peut toutefois s'avérer difficile pour les petites entreprises disposant de moins de ressources et qui utilisent encore des plateformes technologiques traditionnelles pour collecter des données. Mais Massey a déclaré que même ces entreprises ont le temps de « rattraper leur retard », étant donné que l'IA en est encore à ses débuts.
Pourtant, la « grande majorité » des équipes de direction ont le sentiment d'être en retard dans l'adoption de l'IA, a déclaré Calise de Teneo. « Tout le monde a l'impression d'avoir un temps de retard », a-t-elle fait remarquer. « Tout le monde a l'impression de courir après ses pairs, car les choses évoluent très rapidement. »
Mais Calise a rappelé à l'auditoire que le développement et l'adoption de l'IA en sont encore à leurs balbutiements, pour utiliser une analogie avec le baseball. « Nous n'en sommes pas seulement à la première manche », a-t-elle déclaré. « Nous en sommes plutôt au premier tour de batte de la première manche. »
De l’outil d’aide à la décision à la co-gouvernance
Dans les faits, de nombreuses entreprises utilisent déjà des outils d’IA pour éclairer leurs décisions. Les fonds d’investissement emploient des algorithmes pour identifier les startups prometteuses. Les conseils d’administration se fient de plus en plus à l’analytique prédictive pour évaluer la rentabilité ou la durabilité des choix stratégiques.
Mais la proposition de Faber franchit une étape symbolique : elle ne parle plus d’un outil mais d’un membre. Cette nuance change tout. Elle suppose une reconnaissance statutaire, une place dans la hiérarchie, voire un droit de parole et d’influence. C’est la différence entre consulter un assistant numérique et débattre avec lui comme un pair.
Pour Logitech, pionnière dans la conception d’outils hybrides (claviers intelligents, périphériques connectés, IA embarquée dans la capture vidéo), cette vision fait sens : si les machines collaborent déjà avec nous dans la création et la productivité, pourquoi ne pas leur confier une place symbolique à la table des décisions ?
La frontière entre rationalité et intuition
Hanneke Faber reconnaît toutefois les limites de cette approche. Une IA, dit-elle, n’a pas de valeurs, pas d’expérience vécue, pas de sens moral. Elle ne peut comprendre le contexte émotionnel d’une décision difficile, ni l’impact humain d’une restructuration. La rationalité pure, si précieuse pour les calculs financiers, peut devenir un piège lorsqu’elle ignore la complexité sociale.
C’est ici que la philosophie rejoint la stratégie : faut-il laisser la logique mathématique prendre place dans un espace historiquement...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.