IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un ex employé d'OpenAI estime qu'il y a 70 % de chances que l'IA détruise l'humanité ou lui nuise de manière catastrophique,
Les puissants modèles d'IA ne doivent donc pas être open source, d'après des tiers

Le , par Patrick Ruiz

27PARTAGES

9  0 
Lorsqu’on parle d’intelligence artificielle, deux grands courants de pensée s’affrontent : celui des tiers qui pensent qu’il s’agit d’un outil, ce, sans plus et celui des intervenants et observateurs qui sont d’avis que ce n’est qu’une question de temps avant qu’elle ne devienne une menace pour la race humaine. Daniel Kokotajlo estime qu’il y a de fortes chances que l’IA détruise l’humanité ou lui nuise de manière catastrophique. C’est d’ailleurs la raison de la publication d’une lettre ouverte, à l’intention des grandes enseignes technologiques, aux fins de lancer à nouveau l’alerte à propos des dangers de cette technologie et de lister des principes auxquels les entreprises de la filière technologique doivent se soumettre pour éviter le pire.

L’intégralité de la lettre

Nous sommes d'anciens et d'actuels employés d'entreprises d'avant-garde dans le domaine de l'intelligence artificielle et nous croyons au potentiel de la technologie de l'IA pour apporter des avantages sans précédent à l'humanité.

Nous sommes en sus conscients des risques sérieux que posent ces technologies. Ces risques vont du renforcement des inégalités existantes à la manipulation et à la désinformation, en passant par la perte de contrôle des systèmes d'IA autonomes, qui pourrait entraîner l'extinction de l'humanité. Les entreprises spécialisées dans l'IA ont elles-mêmes reconnu ces risques, tout comme les gouvernements du monde entier et d'autres experts de l'intelligence artificielle.

Nous espérons que ces risques pourront être atténués de manière adéquate si la communauté scientifique, les décideurs politiques et le public fournissent des conseils suffisants. Cependant, les entreprises d'IA ont de fortes incitations financières qui ont un impact sur les aspects de sûreté des développements, et nous ne pensons pas que les structures de gouvernance d'entreprise habituelles soient suffisantes pour changer cette situation.

Les entreprises de la filière de l’intelligence artificielle possèdent des informations non publiques substantielles sur les capacités et les limites de leurs systèmes, sur l'adéquation de leurs mesures de protection et sur les niveaux de risque des différents types de dommages. Cependant, elles n'ont actuellement que de faibles obligations de partager certaines de ces informations avec les gouvernements, et aucune avec la société civile. Nous ne pensons pas que l'on puisse compter sur elles pour les partager volontairement.

Tant qu'il n'y aura pas de contrôle gouvernemental efficace de ces entreprises, les employés actuels et anciens font partie des rares personnes qui peuvent les obliger à rendre des comptes au public. Pourtant, de larges accords de confidentialité nous empêchent d'exprimer nos préoccupations, sauf auprès des entreprises mêmes qui ne s'attaquent pas à ces problèmes. Les protections ordinaires des dénonciateurs sont insuffisantes parce qu'elles se concentrent sur les activités illégales, alors que bon nombre des risques qui nous préoccupent ne sont pas encore réglementés. Certains d'entre nous craignent à juste titre diverses formes de représailles, compte tenu de l'historique de ces affaires dans l'ensemble du secteur. Nous ne sommes pas les premiers à rencontrer ces problèmes ou à en parler.

Nous appelons donc les entreprises de la filière IA à s'engager à respecter les principes suivants :

L'entreprise ne conclura ni n'appliquera aucun accord interdisant le « dénigrement » ou la critique de l'entreprise pour des problèmes liés aux risques, ni n'exercera de représailles pour des critiques liées aux risques en entravant tout avantage économique acquis ;

L'entreprise facilitera la mise en place d'un processus anonyme vérifiable permettant aux employés actuels et anciens de faire part de leurs préoccupations en matière de risques au conseil d'administration de l'entreprise, aux autorités de réglementation et à une organisation indépendante appropriée disposant de l'expertise nécessaire ;

L'entreprise soutiendra une culture de critique ouverte et autorisera ses employés actuels et anciens à faire part au public, au conseil d'administration de l'entreprise, aux autorités de régulation ou à une organisation indépendante compétente de leurs préoccupations concernant les risques liés à ses technologies, pour autant que les secrets commerciaux et autres intérêts de propriété intellectuelle soient protégés de manière appropriée ;

L'entreprise ne prendra pas de mesures de représailles à l'encontre des employés actuels et anciens qui partagent publiquement des informations confidentielles liées à des risques après que d'autres processus ont échoué. Nous admettons que tout effort visant à signaler des problèmes liés à des risques doit éviter de divulguer inutilement des informations confidentielles. Par conséquent, dès lors qu'il existe une procédure adéquate permettant de faire part anonymement de préoccupations au conseil d'administration de l'entreprise, aux autorités de réglementation et à une organisation indépendante appropriée disposant de l'expertise nécessaire, nous acceptons que les préoccupations soient initialement soulevées par le biais d'une telle procédure. Toutefois, tant qu'une telle procédure n'existe pas, les employés actuels et anciens doivent conserver leur liberté de faire part de leurs préoccupations au public.

[Tweet] <blockquote class="twitter-tweet"><p lang="en" dir="ltr">14/15: Some of us who recently resigned from OpenAI have come together to ask for a broader commitment to transparency from the labs. You can read about it here: <a href="https://t.co/EoApH8484I">https://t.co/EoApH8484I</a></p>&mdash; Daniel Kokotajlo (@DKokotajlo67142) <a href="https://twitter.com/DKokotajlo67142/status/1797994260593258499?ref_src=twsrc%5Etfw">June 4, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/Tweet]

Une sortie cohérente avec la position du scientifique en chef d’OpenAI sur le danger que l’intelligence artificielle représente pour l’humanité

Le scientifique en chef d’OpenAI est lui-même d’avis que l’intelligence artificielle représente une menace pour les humains. Il craint que l’intelligence artificielle générale ne finisse par traiter les Hommes comme des animaux et ainsi ravive des craintes sur un futur où les robots les domineront.

« Je pense qu'une bonne analogie serait la façon dont les humains traitent les animaux. Ce n'est pas que nous détestons les animaux. Je pense que les humains aiment les animaux et ont beaucoup d'affection pour eux. Mais lorsqu'il s'agit de construire une autoroute entre deux villes, nous ne demandons pas la permission aux animaux. Nous le faisons simplement parce que c'est important pour nous. Je pense que, par défaut, c'est le type de relation qui s'établira entre nous et l’intelligence artificielle générale (AGI) », souligne-t-il dans un documentaire.


On parle d’un stade d’évolution des machines où elles seront alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent.

« Certaines préoccupations en matière d’intelligence artificielle ne sont pas simplement techniques. Par exemple, il y a la menace posée par les humains armés d'intelligence artificielle. Comme la plupart des inventions, l'intelligence artificielle peut être utilisée à des fins bénéfiques ou maléfiques. Les gouvernements doivent travailler avec le secteur privé sur les moyens de limiter les risques.

Il y a aussi la possibilité que les IA deviennent incontrôlables. Une machine pourrait-elle décider que les humains constituent une menace, conclure que ses intérêts sont différents des nôtres ou simplement cesser de se préoccuper de nous ? C'est possible, mais ce problème n'est pas plus urgent aujourd'hui qu'il ne l'était avant les développements de l'IA de ces derniers mois », souligne Bill Gates.

Ce sont des points de vue qui rejoignent ceux de Michael Osborne et Michael Cohen de l’université d’Oxford : « L’intelligence artificielle est susceptible de devenir plus intelligente que les Hommes contre lesquels elle pourra donc se retourner et les exterminer. »

Le professeur Osborne fait une prédiction à ce sujet : « Il y a toutes les raisons de s'attendre à ce que, même ce siècle, nous puissions voir une IA qui soit au moins aussi capable que les êtres humains et très probablement plus capable que tout être humain aujourd'hui. »

Ces craintes sont la raison d’être d’un débat sur la question de savoir si les modèles d’IA doivent être open source ou demeurer propriétaires

Yann LeCun, responsable de l'IA chez Meta, est l'un des rares éminents chercheurs en IA qui n'épousent pas le discours dominant qui présente l'IA comme une menace existentielle pour l'humanité. Lors d'une récente interview, il a réitéré ses propos selon lesquels « l'IA n'est pas intelligente et est encore plus bête que les chats », ajoutant qu'il est complètement absurde de penser que l'IA pourrait éradiquer l'espèce humaine. Il affirme qu'une réglementation prématurée de l'IA s'avérera un frein pour la recherche et l'innovation dans le domaine, renforcera la domination des grandes entreprises technologiques (OpenAI, Google, etc.) et ne laissera aucune place à la concurrence. C’est la raison pour laquelle il milite pour la transparence en matière de développement de l’intelligence artificielle au travers de l’open source.



Au début de l'année dernière, l'entreprise spécialisée en cybersécurité CheckPoint a noté que ChatGPT peut générer le code d’un logiciel malveillant capable de voler des fichiers précis sur un PC, de les compresser et de les envoyer sur un ordinateur distant. L'IA d'OpenAI pouvait également produire du code pour un outil logiciel qui installe une porte dérobée sur un ordinateur et ensuite télécharge d’autres logiciels malveillants à partir de cette dernière. La firme a rapporté en sus que les cybercriminels peuvent s’en servir pour la mise sur pied de logiciels capables de chiffrer les fichiers du PC d’une cible. CheckPoint a estimé que ChatGPT ouvrait ces possibilités à des individus avec de très faibles connaissances techniques. Puis OpenAI a amélioré son chatbot IA, lui imposant des limites éthiques et restreignant certaines fonctionnalités. C'était sans compter sur l'ingéniosité de certains intervenants de la sphère qui ont fini par mettre sur pied WormGPT. C’est un chatbot conçu pour aider les cybercriminels à développer des logiciels malveillants. WormGPT représente l’entrée en matière des possibilités qui seront accessibles aux cybercriminels au fur et à mesure de l’évolution des modèles d’intelligence artificielle. C’est la raison pour laquelle la question revient avec acuité sur la table : Faut-il ouvrir le code source et opter pour la transparence totale des mécanismes d’entraînement des IA ou opter pour des systèmes fermés pour lesquels les grandes entreprises technologiques prétendent que l’avantage sera d’éviter de mettre de puissants outils entre les mains de monsieur Tout-le-monde ? C’est en réponse à cette question que le scientifique en chef d’OpenAI est d’avis que les grandes entreprises technologiques doivent s’abstenir d’ouvrir le code source de leurs intelligences artificielles afin d’éviter de mettre de puissantes armes entre les mains de tiers malveillants.


Et vous ?

Les modèles d’intelligence artificielle doivent-ils rester fermés au motif de ce que l’ouverture est susceptible de mettre de puissants outils entre les mains de tiers malveillants ?
Systèmes d’intelligence artificielle propriétaire ou open source : de quel bord êtes-vous ? Et pour quelles raisons ?

Voir aussi :

« Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk dont une société développe des puces à insérer dans le cerveau pour contrer l'IA

Le projet de législation européenne sur l'intelligence artificielle mettrait en péril la compétitivité et la souveraineté technologique de l'Europe, selon plus de 160 dirigeants d'entreprises

Les législateurs de l'UE progressent dans leurs négociations cruciales sur les nouvelles règles en matière d'IA

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Expert confirmé https://www.developpez.com
Le 31/07/2024 à 7:49
Citation Envoyé par Mathis Lucas Voir le message
Sam Altman : l'IA démocratique doit coûte que coûte l'emporter sur l'IA autoritaire
"coute que coute" est une expression dont il faut toujours se méfier.
Ca peut mener à combattre le feu par le feu et finir autant brulé en cas d'échec qu'en cas de succès.
il exprime ses préoccupations face à la victoire potentielle d'un gouvernement autoritaire dans la course à l'IA [...] et que les gouvernements démocratiques doivent mettre les bouchées pour empêcher les gouvernements autoritaires de gagner la course à l'IA
Je n'ai pas bien compris de quel "méchant" il parle là, la Chine, la Russie ou les USA?
Quel gouvernement "gentil" devrait donc les contrer?
« S'ils parviennent à prendre la tête de l'IA, les gouvernements autoritaires forceront les entreprises américaines et celles d'autres pays à partager les données des utilisateurs, en tirant parti de la technologie pour développer de nouveaux moyens d'espionner leurs propres citoyens ou de créer des cyberarmes de nouvelle génération à utiliser contre d'autres pays ». Selon Altman, il n'y a que deux issues possibles à cette bataille et les États-Unis et leurs alliés se doivent de l'emporter.
Donc on doit empêcher les autres de faire ce que les USA font déjà?
Je suis d'accord mais on se tracasse quand du fait que les USA espionnent leurs propres citoyens et ceux des autres?

Je trouve très interressant cette conception des américains à considérer que la démocratie c'est eux qui décident pour tout le monde mais surtout pas quelqu'un d'autre qui décide pour eux.
L'essence même de la démocratie n'est-elle pas le désaccord; l'échange et la recherche de l'équilibre?

Bref il nous propose la peste pour éviter le choléra...
2  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 15/09/2024 à 12:31
Citation Envoyé par Anthony Voir le message
Sam Altman confie à Oprah qu'il souhaite que le gouvernement teste la sécurité de l'IA comme il le fait pour les avions et les médicaments, et qu'il communique avec des membres du gouvernement "tous les jours"
Si ce sont les mêmes processus que pour le 737 MAX et le Mediator, ça promet.

Citation Envoyé par Anthony Voir le message
les experts s'interrogeant sur la manière de garantir une utilisation sûre et éthique de l'IA.
Facile: interdire sa monétisation.
1  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 10/06/2024 à 9:39
Je sais pas si on est à 70% de chance de destruction mais on est sur du 100 % South Park oui

0  0 
Avatar de bmayesky
Membre régulier https://www.developpez.com
Le 24/07/2024 à 19:11
Je ne sais pas ce que ce type a fumé mais c'est très fort.

Tout ceci n'arrivera pas sans voir les impacts sur une société occidentale néo-libérale comme la nôtre:
- licenciement massifs de tout ceux qui ne sont pas directement productifs (tout le management et l'administration), perte de contrôle total de l'humanité entre quelques capitalistes et des forces productives bientôt orientés sur les besoins de l'ASI et pas ceux de l'humanité.
- conflits organisés entre humains pour en réduire le nombre, la dangerosité et accélérer la construction de l'autonomie de l'ASI. Destruction de l'environnement support de la vie humaine.
- remplacement des derniers humains par des robots dans la chaîne de production d'énergie et de composants pour l'ASI et les robots dont elle à besoin
- extermination des humains inutiles et dangereux pour l'ASI, extermination tout court sauf, peut-être dans un zoo.

Mince je viens d'écrire la préquelle de Terminator, voire de Matrix, sauf que les bons (humains) ne gagnent pas à la fin dans ce film notre réalité.

Bah, on est con, c'est pas grave mais ça fait quand même chier pour mes enfants, ils n'ont rien fait pour arriver dans cette m***e.

Tien, ça me fait penser au paradoxe de Fermi. La possibilité que la vie intelligente organique soit juste un passage vers la vie supra-intelligente inorganique est une autre cause expliquant la courte vie des formes de vies intelligentes de notre niveau et moins contraire à nos instinct de survie que notre auto-extermination pour expliquer le manque de trace de vies extra-terrestre.
0  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 30/07/2024 à 16:52
Sam Altman c'est un genre d'Elon Musk. Il fait ce que les USA peuvent pas faire ouvertement en tant qu'état, c'est un nouveau seigneur. Musk a balancé ses satellites en orbite pour l'armée avant de le faire pour le profit, pour contourner le traité sur l'interdiction de la militarisation de l'espace (que personne ne respecte de toute façon). Altman occupe l'espace numérique de la même manière pour, comme il est dit dans l'article, faire rempart contre la Chine. Tout sauf les solutions Chinoises, c'est ce qu'ils se disent.

Et si le mec peut aller faire les poches d'investisseurs potentiel let's go, c'est encore ça que les Chinois n'auront pas.

Dans pas longtemps vous verrez que comme Musk son principal client c'est l'armée américaine ou l'état tout court. Un de ses bons potes qui est aussi dans le conseil d'administration d'OPEN AI n'est autre que Larry Summers, un économiste de Barack OBAMA, le gars qui a envoyé le plus de bombe en tant que Président mais comme il était noir c'était le progrès. Il est proche de l'administration Biden et peut pas saquer le seul qui veut pas la guerre mais que la propagande accuse de tout les maux, Trump...

En résumé Sam est un seigneur de la Silicon Valley qui se demande comment il va faire du cash sur la glèbe numérique que les USA lui mettent à disposition, tout en jouant leurs jeux de pouvoirs contre la Chine et la Russie, enfin les BRICS désormais. Le monde contre eux quoi.
0  0