IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Edward Snowden : « ils ont tombé le masque : ne faites jamais confiance à OpenAI ou à ses produits »
Le lanceur d'alerte dénonce la décision d'OpenAI de nommer un ancien directeur de la NSA à son conseil

Le , par Stéphane le calme

6PARTAGES

15  0 
OpenAI vient de nommer un ancien directeur de la National Security Agency (NSA) à son conseil d'administration, et Edward Snowden n'est pas content. « Ne faites jamais confiance à OpenAI ou à ses produits », a écrit l'ancien employé de la NSA devenu lanceur d'alerte sur X vendredi, après que l'entreprise a annoncé la nomination du général Paul Nakasone, retraité de l'armée américaine, au nouveau comité de sûreté et de sécurité du conseil d'administration. « Il n'y a qu'une seule raison de nommer [un directeur de la NSA] à votre conseil d'administration. Il s'agit d'une trahison délibérée et calculée des droits de chaque personne sur terre ».

OpenAI a nommé au sein de son conseil d'administration un ancien cyber-guerrier et agent de renseignement américain de haut niveau, affirmant qu'il contribuera à protéger le fabricant de ChatGPT contre des « acteurs malveillants de plus en plus sophistiqués ». Le général Paul Nakasone, aujourd'hui à la retraite, était le commandant du U.S. Cyber Command et le directeur de la National Security Agency avant de quitter ses fonctions au début de l'année.

Il rejoindra le conseil d'administration d'OpenAI et le nouveau comité de sûreté et de sécurité du groupe, qui est censé conseiller le conseil d'administration sur les « décisions critiques en matière de sûreté et de sécurité » pour ses projets et ses opérations. Ce nouveau groupe de sécurité remplace une ancienne équipe de sécurité qui a été dissoute après le départ de plusieurs de ses responsables.

« Les idées de M. Nakasone contribueront également aux efforts d'OpenAI pour mieux comprendre comment l'IA peut être utilisée pour renforcer la cybersécurité en détectant et en répondant rapidement aux menaces de cybersécurité », a déclaré OpenAI dans un billet de blog. Ses premières responsabilités consisteront à rejoindre le comité de sûreté et de sécurité du conseil d'administration, où il prendra « des décisions critiques en matière de sûreté et de sécurité pour tous les projets et opérations d'OpenAI », selon le billet.

En tant que membre du conseil d'administration, Nakasone rejoint Adam D'Angelo, PDG de Quora, l'entrepreneur technologique Tasha McCauley, Helen Toner du Georgetown Center for Security and Emerging Technology, Sue Desmond-Hellmann, ancienne PDG de la Fondation Bill et Melinda Gates, Nicole Seligman, ancienne vice-présidente exécutive et avocate générale mondiale de Sony Corp. et Fidji Simo, PDG et président d'Instacart. Le conseil d'administration comprend également l'ancien secrétaire au Trésor américain Larry Summers, le président d'OpenAI Bret Taylor et le PDG Sam Altman.

OpenAI a récemment connu des départs importants : le cofondateur et ancien scientifique en chef, Ilya Sutskever, a quitté l'entreprise en raison de désaccords sur la sécurité et le développement. Il a été suivi par Jan Leike, chef de l'équipe "superalignment", chargée de veiller à ce que l'IA ne devienne pas une menace pour l'humanité. Peu après son départ, Jan Leike a écrit sur X : « La culture et les processus de sécurité ont été relégués au second plan par rapport aux produits brillants ». Lors d'interviews, il a expliqué qu'il avait perdu ses illusions quant à la capacité de l'entreprise à faire face à la menace de l'IA de manière responsable.

Le président d'OpenAI Bret Taylor semble penser que l'ancien chef de l'espionnage Paul Nakasone pourrait être utile à cet égard.

« L'intelligence artificielle a le potentiel d'avoir d'énormes impacts positifs sur la vie des gens, mais elle ne peut atteindre ce potentiel que si ces innovations sont construites et déployées en toute sécurité », a déclaré M. Taylor dans un communiqué. « L'expérience inégalée du général Nakasone dans des domaines tels que la cybersécurité contribuera à guider OpenAI dans la réalisation de sa mission, qui consiste à faire en sorte que l'intelligence artificielle générale profite à l'ensemble de l'humanité. »

Nakasone dirigeait déjà la branche armée du U.S. Cyber Command lorsque le président Donald Trump l'a choisi en 2018 pour être directeur de la NSA, l'un des principaux services de renseignement du pays, et chef du U.S. Cyber Command. Il a conservé cette double fonction lorsque le président Joe Biden a pris ses fonctions en 2021. Il a pris sa retraite en février.


Edward Snowden dénonce la décision d'OpenAI de nommer un ancien directeur de la NSA à son conseil d'administration

Edward Snowden, célèbre lanceur d'alerte qui a travaillé à la NSA, s'est connecté à son compte sur la plateforme de médias sociaux X (anciennement connue sous le nom de Twitter) pour partager son point de vue sur les récentes mesures prises par l'entreprise OpenAI.

Il a mis en garde contre l'utilisation d'OpenAI et de ses produits.

Snowden a commenté la récente nouvelle selon laquelle OpenAI, dirigée par Sam Altman, a nommé un général de l'armée américaine à la retraite et ancien chef de la NSA, Paul Nakasone, au sein de son conseil d'administration. Ce général a dirigé la National Security Agency entre 2018 et 2023. Le tweet de l'utilisateur @MarioNawfal que Snowden a cité indique que Paul Nakasone « aidera à améliorer le rôle de l'IA dans la cybersécurité en détectant et en répondant rapidement aux menaces ». La nomination de l'ancien patron de la NSA a été annoncée à la suite de préoccupations croissantes concernant la culture de la sécurité au sein de l'OpenAI.

Edward Snowden a tweeté qu'OpenAI avait « fait tomber le masque ». Il a lancé un avertissement critique à ses followers : « Ne faites jamais confiance à OpenAI ou à ses produits (ChatGPT, etc.) ».

Citation Envoyé par Edward Snowden
Ils ont fait tomber le masque : ne faite jamais confiance à OpenAI ou à ses produits (ChatGPT etc.). Il n'y a qu'une seule raison de nommer un directeur de la NSA à votre conseil d'administration. Il s'agit d'une trahison délibérée et calculée des droits de chaque personne sur Terre. Vous avez été prévenu
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">They&#39;ve gone full mask-off: &#119837;&#119848; &#119847;&#119848;&#119853; &#119838;&#119855;&#119838;&#119851; trust <a href="https://twitter.com/OpenAI?ref_src=twsrc%5Etfw">@OpenAI</a> or its products (ChatGPT etc). There is only one reason for appointing an <a href="https://twitter.com/NSAGov?ref_src=twsrc%5Etfw">@NSAGov</a> Director to your board. This is a willful, calculated betrayal of the rights of every person on Earth. You have been warned. <a href="https://t.co/bzHcOYvtko">https://t.co/bzHcOYvtko</a></p>&mdash; Edward Snowden (@Snowden) <a href="https://twitter.com/Snowden/status/1801610725229498403?ref_src=twsrc%5Etfw">June 14, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]

Snowden n'a pas donné de détails, mais OpenAI a fait l'objet d'un examen minutieux pour la manière dont elle recueille des données afin d'entraîner ses modèles d'intelligence artificielle. ChatGPT traite les conversations de dizaines de millions d'utilisateurs par jour, ce qui pourrait également faire de cette technologie un moyen précieux de surveillance.

« Je pense que la plus grande application de l'IA sera la surveillance de masse de la population, donc faire entrer l'ancien chef de la NSA dans l'OpenAI a une logique solide », a tweeté l'expert en sécurité Matthew Green.

OpenAI a présenté l'embauche de Nakasone comme une question de cybersécurité et de développement responsable de l'IA. « La sécurité des systèmes d'OpenAI - de la protection des grands superordinateurs d'entraînement à l'IA que nous utilisons à la sécurisation des poids de nos modèles sensibles et des données qui nous sont confiées par nos clients - est essentielle à la réalisation de notre mission », a déclaré le laboratoire de San Francisco dans son communiqué.

OpenAI note également que « l'IA a le potentiel d'apporter des avantages significatifs [...] à de nombreuses institutions fréquemment ciblées par des cyberattaques, comme les hôpitaux, les écoles et les institutions financières ».

Comme d'autres fournisseurs de technologie, l'entreprise peut être contrainte de divulguer des informations sur les utilisateurs pour se conformer aux demandes des forces de l'ordre, notamment le nom de l'utilisateur, ses coordonnées, son adresse IP et son contenu. Cependant, OpenAI propose des contrôles de données qui peuvent empêcher que leurs données soient exploitées à des fins de formation de modèles d'IA.


Ce n'est pas la première fois que Snowden critique OpenAI

En avril dernier, lors de la conférence annuelle sur les cryptomonnaies Consensus, il a reproché au fabricant de ChatGPT de ne pas être transparent quant aux données sur lesquelles il entraîne ses modèles. « C'est une mauvaise blague, n'est-ce pas ? Ils ont refusé de fournir un accès public à leurs données d'entraînement, à leurs modèles, aux poids, etc. Ils sont récompensés. Ils sont récompensés pour leur comportement antisocial », a déclaré Snowden, qui s'exprimait virtuellement depuis Moscou.

Snowden a également exprimé l'espoir qu'OpenAI et d'autres entreprises technologiques commencent à espionner « pour le public » plutôt que sur le public. Toutefois, ce tweet cinglant semble être un signe que son espoir s'est éteint.

Le magnat de la technologie Elon Musk, fondateur de la startup xAI, qui s'oppose à Sam Altman et à la direction "woke" prise par OpenAI lors de la fabrication de ses produits, a également commenté cette nouvelle, en déclarant : « J'ai hâte qu'OpenAI ait accès à mon téléphone ».

En début de semaine, Apple et OpenAI ont présenté au grand jour leur accord de collaboration pour que ChatGPT soit intégré dans tous les appareils Apple. Musk a déclaré que, dans ce cas, il bannirait tous les appareils Apple de toutes ses entreprises. Il craint qu'OpenAI n'ait accès aux données des utilisateurs et qu'elle ne les copie sur ses serveurs en vue d'une utilisation ultérieure non sollicitée.

Source : Edward Snowden

Et vous ?

Que pensez-vous de la nomination d'un ancien directeur de la National Security Agency (NSA) à son conseil d'administration ?
Que pensez-vous des craintes d'Edward Snowden quant à cette nomination ? Partagez-vous son point de vue ? Dans quelle mesure ?
Que pensez-vous des propos tenus par Elon Musk qui envisage d'interdire à ses employés d'utiliser des iPhone à l'avenir au sein de ses entreprises ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jules34
Membre émérite https://www.developpez.com
Le 17/06/2024 à 9:43
A rapprocher aussi du dernier article sur le partenariat entre Apple et OpenAi qui se ferait sans argent mais avec libre accès d'OpenAi aux données utilisateurs. Enfin j'en sais pas grand chose puisqu'il parlait aussi de la possibilité de prendre des abonnements.

Si c'est gratuit, c'est vous le produit !

De plus en plus louche cette boite.
2  0 
Avatar de Fagus
Membre expert https://www.developpez.com
Le 17/06/2024 à 12:44
Citation Envoyé par Jules34 Voir le message
A rapprocher aussi du dernier article sur le partenariat entre Apple et OpenAi qui se ferait sans argent mais avec libre accès d'OpenAi aux données utilisateurs. Enfin j'en sais pas grand chose puisqu'il parlait aussi de la possibilité de prendre des abonnements.

Si c'est gratuit, c'est vous le produit !

De plus en plus louche cette boite.
même si c'est payant.

Dans toute la chaîne de sous-traitance, il y a bien quelqu'un à un moment qui va faire résumer, traduire un document confidentiel, ou du code confidentiel.
il y a bien quelqu'un qui va faire générer un morceau de code. Et si ce quelqu'un était identifié comme une cible d'intérêt par les services. Et si le code généré pouvait contenir une faille subtile...
2  0