
Le personnel de Google DeepMind tente de se syndiquer en réponse à l'implication de l'entreprise dans la vente de technologies d'intelligence artificielle (IA) à des groupes liés au gouvernement israélien, selon le Financial Times (FT).
Ces événements interviennent peu de temps après que Google a discrètement levé l'interdit sur l'IA militaire et supprimé son engagement à ne pas utiliser l'IA pour les armes. L'entreprise a en effet récemment mis à jour sa page publique sur les principes de l'IA, en supprimant la section « applications que nous ne poursuivrons pas » et en introduisant à la place des directives plus générales parlant de supervision humaine appropriée.
Ce contexte a conduit les employés de Google DeepMind a intensifier leurs efforts pour faire pression sur l'entreprise afin qu'elle abandonne les contrats militaires, notamment en raison des inquiétudes suscitées par les liens avec Israël. Leurs actions s'inscrivent dans le cadre d'un mouvement mondial plus large, comprenant des manifestations devant les bureaux d'OpenAI et de Google, qui s'opposent à l'utilisation de l'IA à des fins militaires.
Plus récemment, environ 300 employés londoniens de DeepMind, la division d'IA cofondée par le PDG Sir Demis Hassabis et dont le siège se trouve à King's Cross, cherchent à rejoindre le Communications Workers Union (CWU), selon des sources proches de l'affaire, comme l'a rapporté le FT.
Cet effort de syndicalisation fait suite à des articles de presse suggérant que Google fournit ses services cloud et ses technologies d'IA au ministère israélien de la défense.
Le gouvernement israélien a conclu un accord de 1,2 milliard de dollars avec Google et Amazon dans le cadre du projet Nimbus, qui a suscité des protestations ailleurs chez Google.
Le FT a cité trois employés de DeepMind impliqués dans l'effort de syndicalisation, qui ont déclaré que les rapports sur l'implication de Google avec Israël avaient provoqué une « inquiétude » au sein du personnel.
Les travailleurs seraient également mécontents de la décision de Google de supprimer l'engagement de ne pas utiliser l'IA à des fins d'armement ou de surveillance.
DeepMind a subi des pressions de la part de Google pour trouver des applications commerciales à son IA, Sir Demis Hassabis suggérant que les entreprises des pays démocratiques devraient collaborer pour soutenir la sécurité.
Le FT a fait référence à des articles de presse affirmant que les Forces de défense israéliennes (FDI) ont utilisé l'IA pour générer des cibles pour des attaques à Gaza. On ne sait toujours pas si les forces israéliennes utilisent une technologie achetée dans le commerce ou si elles développent leur propre logiciel à cette fin.
Un ingénieur anonyme impliqué dans les efforts de syndicalisation a déclaré au FT : « Nous faisons le rapprochement et pensons que la technologie que nous développons est utilisée dans le conflit. »
« Il s'agit en fait d'une IA de pointe que nous fournissons à un conflit en cours. Les gens ne veulent pas que leur travail soit utilisé de la sorte... ils se sentent dupés ».
Selon certaines informations, cinq membres du personnel de DeepMind ont récemment démissionné, invoquant des préoccupations liées à l'accord sur le cloud avec Israël et à la mise à jour des politiques de Google en matière d'IA.
Les efforts de syndicalisation interviennent après que Google a pris la décision, en février de cette année, de revenir sur son engagement de 2018 d'éviter de développer des technologies d'IA susceptibles de causer un préjudice généralisé, y compris celles utilisées pour les armes et à des fins militaires ou de surveillance.
En mai dernier, près de 200 employés de DeepMind ont signé une lettre exhortant l'entreprise à rompre ses contrats avec des organisations militaires, craignant que cela n'enfreigne les directives de Google en matière d'IA.
La lettre, datée du 16 mai 2024, stipulait : « Toute implication avec les militaires et la fabrication d'armes a un impact sur notre position de leader en matière d'IA éthique et responsable, et va à l'encontre de notre déclaration de mission et de nos principes déclarés en matière d'IA. »
Les travailleurs concernés par la lettre ont tenu des réunions avec la direction, mais leurs demandes auraient été rejetées.
Les principes actualisés de Google en matière d'IA stipulent désormais que l'entreprise procédera à des tests et à un suivi rigoureux afin d'atténuer les « résultats involontaires ou néfastes ».
Google Cloud vend des services, notamment des technologies d'IA développées par DeepMind, à des gouvernements et des armées, dont Israël et les États-Unis.
Un porte-parole de Google a déclaré au FT : « Notre approche est et a toujours été de développer et de déployer l'IA de manière responsable. Nous encourageons un dialogue constructif et ouvert avec tous nos employés. Au Royaume-Uni et dans le monde entier, les employés de Google font depuis longtemps partie de groupes de représentation des employés, de comités d'entreprise et de syndicats. »
L'agitation croissante parmi les employés de Google DeepMind reflète des incidents similaires dans l'industrie technologique. Des tensions concernant l'implication des entreprises dans des projets militaires sont en effet apparues lors de l'événement organisé à l'occasion du 50e anniversaire de Microsoft, au cours duquel des employés ont protesté contre les liens de l'entreprise avec l'armée israélienne.
Lors de l'événement, l'ingénieur logiciel Ibtihal Aboussad a publiquement interrompu une présentation de Mustafa Suleyman, PDG de Microsoft AI, le dénonçant comme un « profiteur de guerre » et critiquant l'implication de l'entreprise dans des projets à visée militaire. À la suite de cette protestation, Aboussad Ibtihal a été rapidement licenciée pour conduite inappropriée en contexte professionnel.
Ces tensions surviennent alors que les dirigeants mondiaux sont aux prises avec les implications éthiques de l'IA dans les applications militaires. Lors d'un sommet international à La Haye, plus de 60 pays, dont les États-Unis et la Chine, ont signé une déclaration appelant à une utilisation responsable de l'IA militaire. Les critiques ont souligné les limites de cette déclaration, notamment l'absence de mesures contraignantes concernant les armes autonomes et les risques d'escalade induits par l'IA.
Source : Rapport du Financial Times
Et vous ?


Voir aussi :



Vous avez lu gratuitement 1 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.