IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des employés d'OpenAI exigent des protections pour alerter sur les «risques sérieux de l'IA» sans subir de représailles
Mettant en garde contre les risques graves que la technologie fait peser sur l'humanité

Le , par Stéphane le calme

11PARTAGES

6  0 
Un groupe d’employés actuels et anciens d’OpenAI et de Google DeepMind réclame une protection contre les représailles pour avoir exprimé leurs inquiétudes concernant les risques potentiels des technologies développées par ces entreprises. Ils affirment que de larges accords de confidentialité les empêchent d’exprimer leurs préoccupations, sauf auprès des entreprises elles-mêmes.

Selon une lettre ouverte intitulée « Un droit d'alerte sur l'intelligence artificielle avancée » et signée par 13 personnes ayant travaillé dans ces entreprises, dont sept ont inclus leurs noms, « tant qu’il n’y a pas de surveillance gouvernementale efficace de ces sociétés, les employés actuels et anciens sont parmi les rares personnes capables de les tenir responsables devant le public ». Les entreprises de pointe en IA ont « de forts incitatifs financiers à éviter une surveillance efficace », mais elles ont « seulement de faibles obligations » de partager les véritables dangers de leurs systèmes d’IA avec le public.


Une poignée d'employés actuels et anciens d'OpenAI et d'autres grandes entreprises d'intelligence artificielle ont mis en garde contre les risques graves que la technologie fait peser sur l'humanité dans une lettre publiée mardi, appelant les entreprises à mettre en œuvre des changements radicaux pour garantir la transparence et favoriser une culture de débat public.

La lettre, signée par 13 personnes, dont des employés actuels et anciens d'Anthropic, DeepMind (Google) et OpenAI indique que l'IA peut exacerber les inégalités, accroître la désinformation et permettre aux systèmes d'IA de devenir autonomes et de provoquer des décès importants. Bien que ces risques puissent être atténués, les entreprises qui contrôlent les logiciels ont de « fortes incitations financières » à limiter la surveillance, ont-ils déclaré.

L'IA n'étant que faiblement réglementée, la responsabilité repose sur les initiés de l'entreprise, écrivent les employés, qui demandent aux entreprises de lever les accords de non-divulgation et d'accorder aux travailleurs des protections leur permettant de faire part de leurs inquiétudes de manière anonyme.


Cette décision intervient alors qu'OpenAI est confrontée à un exode de son personnel

De nombreux critiques ont vu dans les départs importants - notamment ceux du cofondateur d'OpenAI, Ilya Sutskever, et du chercheur principal Jan Leike - une réprimande des dirigeants de l'entreprise, qui, selon certains employés, recherchent le profit au détriment de l'amélioration de la sécurité des technologies d'OpenAI.

Daniel Kokotajlo, un ancien employé d'OpenAI, a déclaré avoir quitté la start-up en raison de l'indifférence de l'entreprise à l'égard des risques liés à l'intelligence artificielle. « J'ai perdu l'espoir qu'ils agissent de manière responsable, en particulier dans leur quête d'intelligence artificielle générale », a-t-il déclaré dans un communiqué, faisant référence à un terme très contesté désignant des ordinateurs dont la puissance est équivalente à celle des cerveaux humains. « Ils ont adhéré, comme d'autres, à l'approche qui consiste à aller vite et à tout casser, ce qui va à l'encontre de ce qui est nécessaire pour une technologie aussi puissante et aussi mal comprise », a ajouté Kokotajlo.

Liz Bourgeois, porte-parole d'OpenAI, a déclaré que l'entreprise était d'accord pour dire qu'un « débat rigoureux est crucial compte tenu de l'importance de cette technologie ». Les représentants d'Anthropic et de Google n'ont pas répondu immédiatement à une demande de commentaire.

Les employés ont déclaré qu'en l'absence de contrôle gouvernemental, les travailleurs de l'IA sont les « rares personnes » à pouvoir demander des comptes aux entreprises. Ils affirment qu'ils sont paralysés par de « larges accords de confidentialité » et que les protections ordinaires des dénonciateurs sont « insuffisantes » parce qu'elles se concentrent sur les activités illégales et que les risques qu'ils signalent ne sont pas encore réglementés.

Quatre principes

La lettre demande aux entreprises d'IA de s'engager à respecter quatre principes afin d'améliorer la transparence et la protection des lanceurs d'alerte. Ces principes sont les suivants : s'engager à ne pas conclure ou appliquer des accords interdisant de critiquer les risques ; demander la mise en place d'une procédure anonyme permettant aux employés actuels et anciens de faire part de leurs préoccupations ; soutenir une culture de la critique ; et promettre de ne pas exercer de représailles à l'encontre des employés actuels et anciens qui partagent des informations confidentielles pour lancer des alertes « après l'échec d'autres procédures ».

Nous appelons donc les entreprises d'IA avancée à s'engager à respecter les principes suivants :
  • L'entreprise ne conclura ni n'appliquera aucun accord interdisant le « dénigrement » ou la critique de l'entreprise pour des problèmes liés aux risques, ni n'exercera de représailles pour des critiques liées aux risques en entravant tout avantage économique acquis ;
  • L'entreprise facilitera la mise en place d'un processus anonyme vérifiable permettant aux employés actuels et anciens de faire part de leurs préoccupations en matière de risques au conseil d'administration de l'entreprise, aux autorités de réglementation et à une organisation indépendante appropriée disposant de l'expertise nécessaire ;
  • L'entreprise soutiendra une culture de critique ouverte et autorisera ses employés actuels et anciens à faire part au public, au conseil d'administration de l'entreprise, aux autorités de réglementation ou à une organisation indépendante compétente de leurs préoccupations concernant les risques liés à ses technologies, pour autant que les secrets commerciaux et autres intérêts de propriété intellectuelle soient protégés de manière appropriée ;
  • L'entreprise ne prendra pas de mesures de rétorsion à l'encontre des employés actuels et anciens qui partagent publiquement des informations confidentielles liées à des risques après que d'autres processus ont échoué. Nous admettons que tout effort visant à signaler des problèmes liés à des risques doit éviter de divulguer inutilement des informations confidentielles. Par conséquent, dès lors qu'il existe une procédure adéquate permettant de faire part anonymement de préoccupations au conseil d'administration de l'entreprise, aux autorités de réglementation et à une organisation indépendante appropriée disposant de l'expertise nécessaire, nous acceptons que les préoccupations soient initialement soulevées par le biais d'une telle procédure. Toutefois, tant qu'une telle procédure n'existe pas, les employés actuels et anciens doivent conserver leur liberté de faire part de leurs préoccupations au public.


En décembre, les médias ont rapporté que des cadres supérieurs d'OpenAI avaient exprimé des craintes de représailles de la part du PDG Sam Altman - des avertissements qui ont précédé l'éviction temporaire de ce dernier. Dans une récente interview podcast, Helen Toner, ancien membre du conseil d'administration d'OpenAI, a déclaré qu'une partie de la décision de l'organisation à but non lucratif de démettre Altman de ses fonctions de PDG à la fin de l'année dernière était due à son manque de communication franche au sujet de la sécurité.

« Il nous a donné des informations inexactes sur le petit nombre de processus de sécurité formels mis en place par l'entreprise, ce qui signifie qu'il était tout simplement impossible pour le conseil d'administration de savoir si ces processus de sécurité fonctionnaient bien », a-t-elle déclaré lors de l'émission « The TED AI Show » en mai.

En mai, un article de Kelsey Piper publié dans Vox a soulevé des inquiétudes concernant l'utilisation par OpenAI d'accords de non-divulgation restrictifs pour les employés qui quittent l'entreprise, qui menaçaient de révoquer les droits acquis si les anciens employés critiquaient l'entreprise. Le PDG d'OpenAI, Sam Altman, a répondu à ces allégations en déclarant que l'entreprise n'avait jamais récupéré les actions acquises et qu'elle ne le ferait pas si les employés refusaient de signer l'accord de séparation ou la clause de non-dénigrement.

Mais les critiques sont restées insatisfaites et OpenAI a rapidement fait volte-face publiquement sur la question, déclarant qu'elle supprimerait la clause de non-dénigrement et les dispositions relatives à la récupération des actions de ses accords de séparation, reconnaissant que ces termes étaient inappropriés et contraires aux valeurs déclarées de transparence et de responsabilité de l'entreprise. Cette décision de l'OpenAI est probablement à l'origine de la présente lettre ouverte.

Margaret Mitchell, chercheuse en éthique de l'IA chez Hugging Face, qui a été licenciée de Google en 2021 après avoir soulevé des questions sur la diversité et la censure au sein de l'entreprise, a parlé des défis auxquels sont confrontés les lanceurs d'alerte dans l'industrie technologique. « En théorie, vous ne pouvez pas faire l'objet de représailles légales pour avoir dénoncé un problème. Dans la pratique, il semble que ce soit le cas », a déclaré Mitchell. « Les lois soutiennent les objectifs des grandes entreprises au détriment des travailleurs. Elles ne sont pas en faveur des travailleurs ».

Mitchell a souligné les conséquences psychologiques d'une action en justice contre une grande entreprise : « Vous devez essentiellement renoncer à votre carrière et à votre santé psychologique pour obtenir justice contre une organisation qui, du fait qu'elle est une entreprise, n'éprouve pas de sentiments et dispose des ressources nécessaires pour vous détruire ». Elle a ajouté : « Rappelez-vous qu'il vous incombe, en tant que personne licenciée, de prouver que vous avez été victime de représailles - une personne seule, sans source de revenus après avoir été licenciée - face à une entreprise de plusieurs milliards de dollars disposant d'une armée d'avocats spécialisés dans les préjudices causés aux travailleurs exactement de cette manière. »

Conclusion

Cette lettre, intitulée “Un droit d’alerte sur l’intelligence artificielle avancée”, souligne l’importance d’un débat rigoureux sur les risques liés à l’IA, étant donné la signification de cette technologie. Elle met en lumière les défis auxquels sont confrontés les employés qui cherchent à protéger le public tout en travaillant pour des entreprises puissantes et influentes.

Elle a reçu le soutien d'éminentes personnalités de la communauté de l'IA, dont Yoshua Bengio, Geoffrey Hinton (qui a déjà mis en garde contre l'IA par le passé) et Stuart J. Russell. Il convient de noter que des experts en IA, comme Yann LeCun de Meta, ont contesté les affirmations selon lesquelles l'IA représente un risque existentiel pour l'humanité, et que d'autres experts estiment que le thème de la « prise de contrôle de l'IA » détourne l'attention des méfaits actuels de l'IA, tels que les préjugés et les hallucinations dangereuses.

Même si l'on ne s'accorde pas sur les dommages précis que pourrait causer l'IA, Mitchell estime que les préoccupations soulevées par la lettre soulignent le besoin urgent d'une plus grande transparence, d'un meilleur contrôle et d'une meilleure protection pour les employés qui dénoncent les risques potentiels : « Bien que j'apprécie et approuve cette lettre », dit-elle, « il faut apporter des changements significatifs aux lois qui soutiennent de manière disproportionnée les pratiques injustes des grandes entreprises au détriment des travailleurs qui font ce qu'il faut ».

Source : lettre ouverte

Et vous ?

Quels sont les avantages et les inconvénients de l’IA ? Quels aspects positifs et négatifs de l’IA voyez-vous dans notre société ?
Comment pouvons-nous garantir la transparence et la responsabilité dans le développement de l’IA ? Explorez les mécanismes de surveillance et de régulation nécessaires pour éviter les dérives potentielles.
Quelles sont les implications éthiques de l’IA ? Discutez des dilemmes éthiques liés à l’automatisation, à la vie privée et à la discrimination.
Devrions-nous craindre une IA superintelligente ? À l’instar d’OpenAI qui se prépare à une IA qui pourrait surpasser l’intelligence humaine via son département Superalignement, quelles pourraient en être les conséquences ?
Comment pouvons-nous impliquer davantage le grand public dans les discussions sur l’IA ? Explorez des moyens d’éduquer et d’informer le public sur les enjeux liés à l’IA.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Expert confirmé https://www.developpez.com
Le 31/07/2024 à 7:49
Citation Envoyé par Mathis Lucas Voir le message
Sam Altman : l'IA démocratique doit coûte que coûte l'emporter sur l'IA autoritaire
"coute que coute" est une expression dont il faut toujours se méfier.
Ca peut mener à combattre le feu par le feu et finir autant brulé en cas d'échec qu'en cas de succès.
il exprime ses préoccupations face à la victoire potentielle d'un gouvernement autoritaire dans la course à l'IA [...] et que les gouvernements démocratiques doivent mettre les bouchées pour empêcher les gouvernements autoritaires de gagner la course à l'IA
Je n'ai pas bien compris de quel "méchant" il parle là, la Chine, la Russie ou les USA?
Quel gouvernement "gentil" devrait donc les contrer?
« S'ils parviennent à prendre la tête de l'IA, les gouvernements autoritaires forceront les entreprises américaines et celles d'autres pays à partager les données des utilisateurs, en tirant parti de la technologie pour développer de nouveaux moyens d'espionner leurs propres citoyens ou de créer des cyberarmes de nouvelle génération à utiliser contre d'autres pays ». Selon Altman, il n'y a que deux issues possibles à cette bataille et les États-Unis et leurs alliés se doivent de l'emporter.
Donc on doit empêcher les autres de faire ce que les USA font déjà?
Je suis d'accord mais on se tracasse quand du fait que les USA espionnent leurs propres citoyens et ceux des autres?

Je trouve très interressant cette conception des américains à considérer que la démocratie c'est eux qui décident pour tout le monde mais surtout pas quelqu'un d'autre qui décide pour eux.
L'essence même de la démocratie n'est-elle pas le désaccord; l'échange et la recherche de l'équilibre?

Bref il nous propose la peste pour éviter le choléra...
2  0 
Avatar de Kannagi
Expert éminent sénior https://www.developpez.com
Le 05/06/2024 à 18:00
Citation Envoyé par HaryRoseAndMac Voir le message

Mais il est tout simplement coincé, ce monde fonctionne avec le capitalisme et même le communisme est du capitalisme qui ne dit pas son nom.
C'est là que je me dis que y'a des gens qui comprenne rien en économie !
Non le communisme n'est pas un capitalisme déguisé.
Si tu fais référence au communisme de l'URSS , oui c'était un capitalisme d'état , mais c'était à peine caché.
Quand les gens ont imaginé comment passer du capitalisme au communisme , ils ont imaginé une phase transitoire qui est que dans un premier temps l'état récupère tout les systeme de production pour ensuite les redistribués.
Bon en URSS et consort, ça s'est arrêté à la première phase parce que Staline et Mao trouvait ça très bien d'avoir autant de pouvoir...
1  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 15/09/2024 à 12:31
Citation Envoyé par Anthony Voir le message
Sam Altman confie à Oprah qu'il souhaite que le gouvernement teste la sécurité de l'IA comme il le fait pour les avions et les médicaments, et qu'il communique avec des membres du gouvernement "tous les jours"
Si ce sont les mêmes processus que pour le 737 MAX et le Mediator, ça promet.

Citation Envoyé par Anthony Voir le message
les experts s'interrogeant sur la manière de garantir une utilisation sûre et éthique de l'IA.
Facile: interdire sa monétisation.
1  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 05/06/2024 à 14:40
A la lecture de l'article et à la suite des différentes communications des entreprises dans cette course effrénée à l'IA générale, le résultat d'un appât du gain et de surfinancement à coup de machines dépassant les 9 chiffres sur le chèque sont la preuve que je préfère largement discuter avec ma machine sans IA qu'un être humain en général : elle est plus facile à comprendre et à maîtriser. Et surtout plus saine en valeur morale pour mon libre-arbitre. La faim dans le monde c'est 6 milliards de budget par an. Google Deepmind a investi 100 milliards dans une machine pour faire un chatbot qui hallucine 20% du temps au lieu de répondre je ne sais pas. Investissement complètement vain dans le but d'atteindre l'IA générale si l'on se contente de LLM pré entrainé. Quel gâchis de temps, d'argent, de cerveaux et surtout d'énergie. Du grand n'importe quoi : le retour à la réalité va coûter combien de centrale nucléaire d'ici là ? L'humanité consomme la production de 2 planètes par an en moyenne. Il faudrait peut-être leur expliquer qu'ils ont perdu tout sens des valeurs et revenir sur Terre vite fait.
0  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 10/06/2024 à 9:39
Je sais pas si on est à 70% de chance de destruction mais on est sur du 100 % South Park oui

0  0 
Avatar de bmayesky
Membre régulier https://www.developpez.com
Le 24/07/2024 à 19:11
Je ne sais pas ce que ce type a fumé mais c'est très fort.

Tout ceci n'arrivera pas sans voir les impacts sur une société occidentale néo-libérale comme la nôtre:
- licenciement massifs de tout ceux qui ne sont pas directement productifs (tout le management et l'administration), perte de contrôle total de l'humanité entre quelques capitalistes et des forces productives bientôt orientés sur les besoins de l'ASI et pas ceux de l'humanité.
- conflits organisés entre humains pour en réduire le nombre, la dangerosité et accélérer la construction de l'autonomie de l'ASI. Destruction de l'environnement support de la vie humaine.
- remplacement des derniers humains par des robots dans la chaîne de production d'énergie et de composants pour l'ASI et les robots dont elle à besoin
- extermination des humains inutiles et dangereux pour l'ASI, extermination tout court sauf, peut-être dans un zoo.

Mince je viens d'écrire la préquelle de Terminator, voire de Matrix, sauf que les bons (humains) ne gagnent pas à la fin dans ce film notre réalité.

Bah, on est con, c'est pas grave mais ça fait quand même chier pour mes enfants, ils n'ont rien fait pour arriver dans cette m***e.

Tien, ça me fait penser au paradoxe de Fermi. La possibilité que la vie intelligente organique soit juste un passage vers la vie supra-intelligente inorganique est une autre cause expliquant la courte vie des formes de vies intelligentes de notre niveau et moins contraire à nos instinct de survie que notre auto-extermination pour expliquer le manque de trace de vies extra-terrestre.
0  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 30/07/2024 à 16:52
Sam Altman c'est un genre d'Elon Musk. Il fait ce que les USA peuvent pas faire ouvertement en tant qu'état, c'est un nouveau seigneur. Musk a balancé ses satellites en orbite pour l'armée avant de le faire pour le profit, pour contourner le traité sur l'interdiction de la militarisation de l'espace (que personne ne respecte de toute façon). Altman occupe l'espace numérique de la même manière pour, comme il est dit dans l'article, faire rempart contre la Chine. Tout sauf les solutions Chinoises, c'est ce qu'ils se disent.

Et si le mec peut aller faire les poches d'investisseurs potentiel let's go, c'est encore ça que les Chinois n'auront pas.

Dans pas longtemps vous verrez que comme Musk son principal client c'est l'armée américaine ou l'état tout court. Un de ses bons potes qui est aussi dans le conseil d'administration d'OPEN AI n'est autre que Larry Summers, un économiste de Barack OBAMA, le gars qui a envoyé le plus de bombe en tant que Président mais comme il était noir c'était le progrès. Il est proche de l'administration Biden et peut pas saquer le seul qui veut pas la guerre mais que la propagande accuse de tout les maux, Trump...

En résumé Sam est un seigneur de la Silicon Valley qui se demande comment il va faire du cash sur la glèbe numérique que les USA lui mettent à disposition, tout en jouant leurs jeux de pouvoirs contre la Chine et la Russie, enfin les BRICS désormais. Le monde contre eux quoi.
0  0