
Selon une lettre ouverte intitulée « Un droit d'alerte sur l'intelligence artificielle avancée » et signée par 13 personnes ayant travaillé dans ces entreprises, dont sept ont inclus leurs noms, « tant qu’il n’y a pas de surveillance gouvernementale efficace de ces sociétés, les employés actuels et anciens sont parmi les rares personnes capables de les tenir responsables devant le public ». Les entreprises de pointe en IA ont « de forts incitatifs financiers à éviter une surveillance efficace », mais elles ont « seulement de faibles obligations » de partager les véritables dangers de leurs systèmes d’IA avec le public.
Une poignée d'employés actuels et anciens d'OpenAI et d'autres grandes entreprises d'intelligence artificielle ont mis en garde contre les risques graves que la technologie fait peser sur l'humanité dans une lettre publiée mardi, appelant les entreprises à mettre en œuvre des changements radicaux pour garantir la transparence et favoriser une culture de débat public.
La lettre, signée par 13 personnes, dont des employés actuels et anciens d'Anthropic, DeepMind (Google) et OpenAI indique que l'IA peut exacerber les inégalités, accroître la désinformation et permettre aux systèmes d'IA de devenir autonomes et de provoquer des décès importants. Bien que ces risques puissent être atténués, les entreprises qui contrôlent les logiciels ont de « fortes incitations financières » à limiter la surveillance, ont-ils déclaré.
L'IA n'étant que faiblement réglementée, la responsabilité repose sur les initiés de l'entreprise, écrivent les employés, qui demandent aux entreprises de lever les accords de non-divulgation et d'accorder aux travailleurs des protections leur permettant de faire part de leurs inquiétudes de manière anonyme.
Cette décision intervient alors qu'OpenAI est confrontée à un exode de son personnel
De nombreux critiques ont vu dans les départs importants - notamment ceux du cofondateur d'OpenAI, Ilya Sutskever, et du chercheur principal Jan Leike - une réprimande des dirigeants de l'entreprise, qui, selon certains employés, recherchent le profit au détriment de l'amélioration de la sécurité des technologies d'OpenAI.
Daniel Kokotajlo, un ancien employé d'OpenAI, a déclaré avoir quitté la start-up en raison de l'indifférence de l'entreprise à l'égard des risques liés à l'intelligence artificielle. « J'ai perdu l'espoir qu'ils agissent de manière responsable, en particulier dans leur quête d'intelligence artificielle générale », a-t-il déclaré dans un communiqué, faisant référence à un terme très contesté désignant des ordinateurs dont la puissance est équivalente à celle des cerveaux humains. « Ils ont adhéré, comme d'autres, à l'approche qui consiste à aller vite et à tout casser, ce qui va à l'encontre de ce qui est nécessaire pour une technologie aussi puissante et aussi mal comprise », a ajouté Kokotajlo.
Liz Bourgeois, porte-parole d'OpenAI, a déclaré que l'entreprise était d'accord pour dire qu'un « débat rigoureux est crucial compte tenu de l'importance de cette technologie ». Les représentants d'Anthropic et de Google n'ont pas répondu immédiatement à une demande de commentaire.
Les employés ont déclaré qu'en l'absence de contrôle gouvernemental, les travailleurs de l'IA sont les « rares personnes » à pouvoir demander des comptes aux entreprises. Ils affirment qu'ils sont paralysés par de « larges accords de confidentialité » et que les protections ordinaires des dénonciateurs sont « insuffisantes » parce qu'elles se concentrent sur les activités illégales et que les risques qu'ils signalent ne sont pas encore réglementés.
Quatre principes
La lettre demande aux entreprises d'IA de s'engager à respecter quatre principes afin d'améliorer la transparence et la protection des lanceurs d'alerte. Ces principes sont les suivants : s'engager à ne pas conclure ou appliquer des accords interdisant de critiquer les risques ; demander la mise en place d'une procédure anonyme permettant aux employés actuels et anciens de faire part de leurs préoccupations ; soutenir une culture de la critique ; et promettre de ne pas exercer de représailles à l'encontre des employés actuels et anciens qui partagent des informations confidentielles pour lancer des alertes « après l'échec d'autres procédures ».
Nous appelons donc les entreprises d'IA avancée à s'engager à respecter les principes suivants :
- L'entreprise ne conclura ni n'appliquera aucun accord interdisant le « dénigrement » ou la critique de l'entreprise pour des problèmes liés aux risques, ni n'exercera de représailles pour des critiques liées aux risques en entravant tout avantage économique acquis ;
- L'entreprise facilitera la mise en place d'un processus anonyme vérifiable permettant aux employés actuels et anciens de faire part de leurs préoccupations en matière de risques au conseil d'administration de l'entreprise, aux autorités de réglementation et à une organisation indépendante appropriée disposant de l'expertise nécessaire ;
- L'entreprise soutiendra une culture de critique ouverte et autorisera ses employés actuels et anciens à faire part au public, au conseil d'administration de l'entreprise, aux autorités de réglementation ou à une organisation indépendante compétente de leurs préoccupations concernant les risques liés à ses technologies, pour autant que les secrets commerciaux et autres intérêts de propriété intellectuelle soient protégés de manière appropriée ;
- L'entreprise ne prendra pas de mesures de rétorsion à l'encontre des employés actuels et anciens qui partagent publiquement des informations confidentielles liées à des risques après que d'autres processus ont échoué. Nous admettons que tout effort visant à signaler des problèmes liés à des risques doit éviter de divulguer inutilement des informations confidentielles. Par conséquent, dès lors qu'il existe une procédure adéquate permettant de faire part anonymement de préoccupations au conseil d'administration de l'entreprise, aux autorités de réglementation et à une organisation indépendante appropriée disposant de l'expertise nécessaire, nous acceptons que les préoccupations soient initialement soulevées par le biais d'une telle procédure. Toutefois, tant qu'une telle procédure n'existe pas, les employés actuels et anciens doivent conserver leur liberté de faire part de leurs préoccupations au public.
En décembre, les médias ont rapporté que des cadres supérieurs d'OpenAI avaient exprimé des craintes de représailles de la part du PDG Sam Altman - des avertissements qui ont précédé l'éviction temporaire de ce dernier. Dans une récente interview podcast, Helen Toner, ancien membre du conseil d'administration d'OpenAI, a déclaré qu'une partie de la décision de l'organisation à but non lucratif de démettre Altman de ses fonctions de PDG à la fin de l'année dernière était due à son manque de communication franche au sujet de la sécurité.
« Il nous a donné des informations inexactes sur le petit nombre de processus de sécurité formels mis en place par l'entreprise, ce qui signifie qu'il était tout simplement impossible pour le conseil d'administration de savoir si ces processus de sécurité fonctionnaient bien », a-t-elle déclaré lors de l'émission « The TED AI Show » en mai.
En mai, un article de Kelsey Piper publié dans Vox a soulevé des inquiétudes concernant l'utilisation par OpenAI d'accords de non-divulgation restrictifs pour les employés qui quittent l'entreprise, qui menaçaient de révoquer les droits acquis si les anciens employés critiquaient l'entreprise. Le PDG d'OpenAI, Sam Altman, a répondu à ces allégations en déclarant que l'entreprise n'avait jamais récupéré les actions acquises et qu'elle ne le ferait pas si les employés refusaient de signer l'accord de séparation ou la clause de non-dénigrement.
Mais les critiques sont restées insatisfaites et OpenAI a rapidement fait volte-face publiquement sur la question, déclarant qu'elle supprimerait la clause de non-dénigrement et les dispositions relatives à la récupération des actions de ses accords de séparation, reconnaissant que ces termes étaient inappropriés et contraires aux valeurs déclarées de transparence et de responsabilité de l'entreprise. Cette décision de l'OpenAI est probablement à l'origine de la présente lettre ouverte.
Margaret Mitchell, chercheuse en éthique de l'IA chez...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.