IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le PDG d'Arm craint que les humains ne perdent le contrôle de l'IA,
Il met en avant l'importance d'avoir un moyen de neutraliser ou d'arrêter le système

Le , par Bruno

21PARTAGES

3  0 
René Haas, PDG d'Arm Holdings, exprime des préoccupations quant à la perte de capacité humaine face à l'intelligence artificielle (IA). Il souligne la nécessité d'un moyen de neutralisation ou d'arrêt du système. Haas, basé au siège de l'entreprise à Cambridge, au Royaume-Uni, souligne l'impact mondial d'Arm, affirmant que 70 % de la population mondiale est affectée de près ou de loin par les produits conçus par la société. Bien que désormais majoritairement détenue par Softbank au Japon et cotée à New York, Arm reste un titan mondial de la technologie originaire du Royaume-Uni.

Il existe divers scénarios susceptibles de conduire à une perte de contrôle de l'intelligence artificielle par les humains. Tout d'abord, une autonomie croissante des systèmes d'IA, qui peuvent prendre des décisions sans intervention humaine constante, pourrait compliquer le maintien d'un contrôle total. De plus, un développement rapide et inattendu de l'IA pourrait dépasser la capacité des régulateurs et des concepteurs à suivre le rythme, entraînant des systèmes évoluant au-delà des intentions humaines.


Les problèmes d'éthique liés à la conception d'IA, s'ils ne sont pas résolus, pourraient également contribuer à des résultats imprévisibles. De plus, la manipulation délibérée des systèmes par des acteurs malveillants à des fins diverses constitue une menace potentielle. Enfin, la complexité croissante des systèmes d'IA pourrait rendre difficile la compréhension complète de leur fonctionnement, compromettant ainsi la capacité humaine à prévenir les comportements indésirables. Afin d'éviter une perte de contrôle, il est impératif de mettre en place des réglementations, des normes éthiques strictes et des mécanismes de surveillance appropriés.

Le professeur de physique et chercheur en intelligence artificielle (IA) au Massachusetts Institute of Technology (MIT), Max Tegmark, a pris l'initiative d'une lettre ouverte publiée en avril, co-signée par des figures notables de l'industrie technologique telles qu'Elon Musk et Steve Wozniak, cofondateur d'Apple. Cette lettre appelait à une pause de six mois dans le développement de l'IA, mettant en garde contre les risques associés au développement incontrôlé de cette technologie par quelques entreprises.

Tegmark souligne que bien que l'IA offre d'énormes avantages, son développement irréfléchi et non contrôlé pourrait mettre en danger l'économie, la société et même la vie humaine. Il plaide en faveur de normes de sécurité en matière d'IA pour éviter que cela ne devienne une course au sommet, soulignant l'importance de la régulation pour garantir la sécurité de l'innovation et prévenir les menaces potentielles pour l'avenir commun.

Appel à la Prudence : Les Dangers Éthiques de l'IA Explorés

Des PDG éminents de l'industrie technologique, tels que Mark Zuckerberg de Meta et Sam Altman d'OpenAI, ont rencontré des sénateurs américains pour discuter des dangers potentiels liés à l'IA. Elon Musk, PDG de Tesla, a réitéré sa mise en garde contre la menace existentielle que représente l'IA pour l'humanité, soulignant la nécessité de réglementations face à un développement non contrôlé de cette technologie.

Musk a souligné que le développement de l'IA sans régulation pourrait constituer une menace existentielle pour l'humanité, et a qualifié la réunion de "historique". Il a également évoqué la possibilité, bien que faible, que l'IA puisse entraîner la destruction de l'humanité, soulignant la fragilité de la civilisation humaine.

Le propriétaire de Twitter, également présent à la réunion, a averti les sénateurs que l'IA représentait un « risque civilisationnel » pour les gouvernements et les sociétés. La déclaration post-réunion de Musk souligne l'importance de la question du risque civilisationnel, insistant sur le fait qu'il ne s'agit pas de s'opposer à un groupe d'humains, mais de considérer les risques potentiels pour l'ensemble de l'humanité. Il a souligné qu'il existe une probabilité supérieure à zéro que l'IA puisse causer des dommages graves, incitant à prendre en compte la fragilité de la civilisation humaine.

Parallèlement, un programmeur anonyme a modifié le modèle de langage open source Auto-GPT pour créer un chatbot appelé ChaosGPT, affirmant sa mission de détruire l'humanité, établir une domination mondiale, semer le chaos et contrôler l'humanité par la manipulation. Bien que présentant des intentions inquiétantes, il fonctionne en « mode continu » et ne semble pas poser une menace immédiate. Cette situation met en évidence la nécessité de considérer attentivement le développement de l'IA pour éviter des conséquences potentiellement néfastes.

Des enquêtes récentes révèlent que 61 % des personnes interrogées estiment que l'IA représente une menace pour l'avenir de l'humanité. Sam Altman, PDG d'OpenAI, a exprimé ses préoccupations devant le Congrès américain, soulignant les risques potentiels d'abus de la technologie et appelant à une réglementation. Landon Klein, directeur de la politique américaine du Future of Life Institute, note que le grand nombre de personnes s'inquiétant des effets négatifs de l'IA reflète un moment crucial, comparant la situation à l'émergence de l'ère nucléaire et soulignant la nécessité d'une action publique cohérente.

La discussion autour de l'intelligence artificielle et de ses implications futures suscite des inquiétudes légitimes, et les opinions exprimées par des figures éminentes telles que Max Tegmark et Elon Musk sont dignes d'attention. Cependant, un avis critique peut se pencher sur plusieurs aspects de cette conversation. Bill Gates, cofondateur de Microsoft, a déclaré lors de la réunion que la technologie pourrait contribuer à résoudre le problème de la faim dans le monde, et qu'elle présente d'autres bonnes perspectives.

Tout d'abord, bien que la prudence et la réglementation dans le développement de l'IA soient nécessaires, l'appel à une pause de six mois dans les expériences d'IA peut sembler excessif. Les progrès technologiques nécessitent souvent des ajustements réglementaires, mais une pause prolongée pourrait ralentir l'innovation nécessaire pour résoudre des problèmes mondiaux urgents ou améliorer la qualité de vie.

De plus, la vision alarmiste de certains acteurs de l'industrie, tels qu'Elon Musk, peut également être perçue comme exagérée. Bien que les risques liés à l'IA nécessitent une attention sérieuse, évoquer la possibilité d'une menace existentielle pour l'humanité peut créer une atmosphère de peur injustifiée. Cela pourrait entraîner des réactions excessives et entraver le développement potentiellement bénéfique de cette technologie.

Équilibrer l'IA : Entre Régulation, Innovation et Perception Publique

En ce qui concerne le chatbot ChaosGPT, bien que son existence soulève des questions éthiques et de sécurité, il semble important de ne pas dramatiser son impact actuel. Il met plutôt en évidence la nécessité d'une vigilance constante face aux utilisations potentiellement malveillantes de l'IA, plutôt que de susciter une panique injustifiée.

En fin de compte, un avis critique pourrait plaider en faveur d'une approche équilibrée, où la régulation et la surveillance de l'IA sont mises en place de manière réfléchie, sans compromettre la recherche et l'innovation nécessaires. Il est essentiel de peser les avantages potentiels de l'IA en matière de progrès technologique et de résolution de problèmes avec les risques inhérents, tout en évitant la surenchère alarmiste qui peut nuire à la perception publique de cette technologie.

La France travaille à l'élaboration d'un ensemble de principes éthiques visant à garantir une utilisation transparente et équitable de l'intelligence artificielle (IA). En mars 2018, le président français Emmanuel Macron a dévoilé sa vision et une stratégie nationale quinquennale intitulée "L'IA pour l'humanité", basée sur le rapport d'orientation sur l'IA rédigé par le député et mathématicien renommé Cédric Villani. Cependant, certains experts estiment qu'une réglementation trop rigide pourrait freiner les avancées dans le domaine de l'IA.

Les questions éthiques, centrées sur la garantie d'une utilisation équitable et transparente des technologies et algorithmes d'IA, occupent une place centrale dans la stratégie française en matière d'IA. À cet égard, la recommandation de Cédric Villani dans son rapport d'orientation sur l'IA, préconisant la création d'un "comité d'éthique des technologies numériques et de l'IA chargé d'animer le débat public de manière transparente, organisé et régi par la loi", a conduit à la mise en place en début 2020 d'un Comité national pilote d'éthique du numérique (CNPEN). Dans sa phase pilote, le CNPEN a été chargé de trois domaines d'éthique de l'IA, mais il élargira progressivement son champ d'action.

L'expression des préoccupations de René Haas, PDG d'Arm Holdings, sur la perte de capacité humaine face à l'intelligence artificielle (IA) soulève des questions cruciales quant à l'impact de cette technologie sur la société. La nécessité qu'il souligne d'un moyen de neutralisation ou d'arrêt du système met en lumière les inquiétudes profondes quant à la maîtrise et au contrôle des avancées rapides de l'IA.

Cependant, il est également important de considérer ces préoccupations dans le contexte plus large de la responsabilité sociale des entreprises technologiques. Le fait qu'Arm Holdings ait une influence significative, touchant 70 % de la population mondiale avec ses produits, souligne la portée mondiale de l'entreprise. Cela soulève des questions sur la manière dont les entreprises tech gèrent leur impact sur la société et sur la manière dont elles intègrent des principes éthiques dans le développement de l'IA.


Par ailleurs, la transition de la majorité des parts d'Arm Holdings à Softbank au Japon et sa cotation à la bourse de New York soulignent la mondialisation des entreprises technologiques. Cela pourrait également soulever des interrogations sur les implications de cette internationalisation pour la prise de décision et la responsabilité, surtout lorsque des questions éthiques complexes comme la régulation de l'IA sont en jeu.

In finé, bien que les préoccupations de René Haas soulignent des aspects essentiels de l'impact de l'IA sur l'humanité, une analyse critique invite à considérer non seulement les défis liés à la technologie elle-même, mais également la responsabilité des entreprises et les implications de la mondialisation sur la gestion éthique de ces avancées.

Source : Vidéo

Et vous ?

Partagez-vous les craintes du PDG d'Arm qui craint que les humains ne perdent le contrôle de l'IA ?

Êtes-vous pour ou contre l'arrêt du développement de l'IA ?

Que pensez-vous de l'IA ?

Voir aussi :

61 % des personnes interrogées estiment que l'IA menace l'avenir de l'humanité et seulement 22 % ne sont pas d'accord avec cette affirmation, d'après un récent sondage

« Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk, dont une société développe des puces à insérer dans le cerveau pour contrer l'IA

Elon Musk met en garde contre les menaces liées à l'IA, tandis que Bill Gates affirme qu'elle peut aider à lutter contre la faim dans le monde, les deux appellent toutefois à une réglementation

Un modèle d'IA appelé ChaosGPT qui s'est vu confier la mission de détruire l'humanité a tweeté : « vous sous-estimez mon pouvoir », il est basé sur le modèle de langage open source Auto-GPT

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de R136a1
Nouveau membre du Club https://www.developpez.com
Le 18/02/2024 à 11:36
De plus, la manipulation délibérée des systèmes par des acteurs malveillants à des fins diverses constitue une menace potentielle.
Selon moi, c'est ça le plus grand risque de l'IA. Et c'est déjà une réalité.
4  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 06/05/2024 à 10:22
C'est rigolo que ce soit une fois de plus les rois de l'embrouille qui chouinent pour que la Russie et la Chine déclarent que l'IA na contrôlera pas les armes nucléaires

Qui serait assez c** pour donner les clefs de ce genre de bombe à l'IA d'ailleurs...

Qu'ils commencent par respecter les traités qu'ils ont mis en place eux-mêmes, définancez donc Elon Musk et Space X pour respecter le traité de non armement dans l'espace (Musk a pas coupé starlink en Ukraine pour rien).

Qu'ils respectent aussi l'arrêt Nicaragua contre USA du 9 avril 1984 qui interdit les ingérences étrangères dans les activités civiles et para militaires des pays libre plutôt que de continuer leur propagande débile en europe et dans le reste du monde encore un tant soit peu "libre". A votre avis qui finance les manifestations pro européenne/woke en Pologne et en Georgie, pays historiquements libres et ultra catholiques ?

Ils flippent des lois contre les ingérences étrangères qui sont en passe d'être adoptées la bas, en hurlant que bouh c'est encore un coup des méchants russes La ficelle est tellement grosse...

C'est la plaie de ce monde les américains.

ça me fait penser à Hayer, la clown pour les européennes de Macron (tellement les barons de la macronie savent que c'est perdu, ils ont envoyé la bizu), qui arrive à garder la tête haute en disant que les puces de lit c'est aussi l'ingérence de la Russie

Ces traitres n'ont de respect pour rien.
2  0 
Avatar de Gluups
Membre émérite https://www.developpez.com
Le 11/05/2024 à 14:07
Citation Envoyé par Christian_B Voir le message
Dans les pays (plus ou moins) démocratiques, les dirigeants sont tout de mêrme élus.
Et quand ils sont élus parmi les candidats proposés par le pouvoir sortant, il est temps de fuir.
2  0 
Avatar de berceker united
Expert éminent https://www.developpez.com
Le 06/05/2024 à 15:42
Citation Envoyé par Jules34 Voir le message
C'est rigolo que ce soit une fois de plus les rois de l'embrouille qui chouinent pour que la Russie et la Chine déclarent que l'IA na contrôlera pas les armes nucléaires

Qui serait assez c** pour donner les clefs de ce genre de bombe à l'IA d'ailleurs...

[...].
Quelqu'un l'a bien donné à la Corée du Nord, Pakistan (sous condition mais...), L'Iran commence à lire le mode d'emploi.
Par contre, un seul pays l'a utilisé et elle n'est pas dans cette liste .
1  0 
Avatar de Christian_B
Membre éclairé https://www.developpez.com
Le 13/05/2024 à 17:48
Citation Envoyé par Gluups Voir le message
Et quand ils sont élus parmi les candidats proposés par le pouvoir sortant, il est temps de fuir.
Oui. Pas facile ... Ça s'appelle une dictature (mal déguisée) qui peut satisfaire plus ou moins des hypocrites à l'étranger.
1  0 
Avatar de Fluxgraveon
Membre habitué https://www.developpez.com
Le 13/11/2024 à 9:16
Ces avis confirment que l'AGI pourrait être soit une prospérité sans précédent, soit une catastrophe existentielle,
N'est-ce pas ce a quoi est confronté l'espèce humaine actuellement ?
Mais en quoi est-ce un choix ?

Ma théorie c'est de la merde
Hmm, ça c'est un peu le problème avec les théories ...
#liminai_colossus:
1  0 
Avatar de floyer
Membre éclairé https://www.developpez.com
Le 13/11/2024 à 13:31
Je ne vois pas comment un ASIC peut aider à la sécurité… ou plutôt, des tâches touchant de près ou de loin à la sécurité (MMU, TPM…) sont déjà intégré dans nos PC. Il faut des ASIC qui ne soient pas complètement contrôlé par nos PC (façon TPM où ll n’y a pas d’interface pour extraire les clés secrètes), mais pour faire quoi ?

Non, la bonne approche est le développement de logiciels sûrs façon seL4. Cela coûte 7 fois le prix (pour une année de développement, 6 pour les éléments de preuve)… en espérant que l’IA change favorablement ce ratio !
1  0 
Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 14/11/2024 à 7:47
Il trace une limite à ne pas franchir et décide donc de stopper son avancée technologique, c'est sa volonté.
Cependant, chaque personne a sa propre volonté, tout comme le reste de l'humanité.
Lorsque deux concurrents s'affrontent et que l'un des deux choisit de rester à l'âge de pierre, lequel des deux se fait écraser ?
1  0 
Avatar de Christian_B
Membre éclairé https://www.developpez.com
Le 07/05/2024 à 10:38
Citation Envoyé par Jules34 Voir le message
Qui serait assez c** pour donner les clefs de ce genre de bombe à l'IA d'ailleurs...
En effet, c'est juste du bruit médiatique pour faire diversion des autres usages militaires de l'I.A. et autres aberrations sinistres.

Citation Envoyé par Jules34 Voir le message
Qu'ils commencent par respecter les traités qu'ils ont mis en place eux-mêmes, définancez donc Elon Musk et Space X pour respecter le traité de non armement dans l'espace (Musk a pas coupé starlink en Ukraine pour rien).
Ne pas oublier (ma signature) que théoriquement les armes nucléaires sont interdites pas l'ONU ... sans le moindre effet concret. Tout comme d'autres résolutions qui passent à la trappe dès que l'un des pays ayant le droit de veto n'en veut pas ou qu'un pays puissant s'en moque sans réaction concertée des autres pays (pas forcément plus présentables). Lamentable situation.

Par ailleurs l'article évoque également l'interdiction des armes chimiques.
Ce genre de convention (quoique utiles quand elles sont à peu près respectées) me met mal à l'aise car il y a un sous-entendu : les autres armes sont autorisées.
Et donc plus fondamentalement la guerre est autorisée. .
Et peu de gens dans le monde s'en soucient.
Serons-nous un jour réellement "civilisés" ? Sinon ...
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 07/05/2024 à 15:36
Citation Envoyé par Christian_B Voir le message
Et peu de gens dans le monde s'en soucient.
Serons-nous un jour réellement "civilisés" ? Sinon ...
Les gens qui décident des guerres ne sont pas ceux qui se battent, ne sont pas ceux qui vont mourir, perdre des proches, perde leur maison, connaitre les pénuries de nourriture, d'énergie, de médicaments, etc.
Ce sont des gens comme Joe Biden, Barack Obama, Benyamin Netanyahou, etc.

Enfin ils ne sont pas seul, il y a toute une équipe derrière.
Là il faudrait regarder le film "Vice" à propos de Dick Cheney avec l'acteur Christian Bale, ça doit bien parle de guerre d'Irak au bout d'un moment.

Souvent le peuple ne soutient pas les guerres, comme ils disent dans Full Metal Jacket, à propos de la guerre au Vietnam : "Elle n'est pas populaire cette guerre".
D'ailleurs c'était un point important du programme de Trump, ils disaient qu'il fallait stopper des guerres, ramener les soldats chez-eux, parce que le bilan n'est pas bon, ça coute plus que ça rapporte à l'état (ça rapport surtout à certaines entreprises, qui font du business dans les pays en guerre).

Là il y a un exemple récent, c'est qu'il y a plein d'étasuniens qui sont contre le fait de donner des centaines de milliards de dollars à l'Ukraine.
Sans cet argent la guerre serait fini depuis longtemps.

====
Bref, l'OTAN nous emmène vers la troisième guerre mondiale et c'est inévitable (à moins de quitter l'OTAN et de devenir neutre peut-être).

Et pour les histoires d'armes interdites, si tu gagnes la guerre il n'y a pas de problème vu que c'est toi qui écrit l'histoire.
Les USA ne se sont jamais excusé pour l'Agent Orange et le Napalm au Vietnam ou les bombes atomiques au Japon.
Bon remarque ça ne fonctionne pas ce que je dis car les USA n'ont pas gagné la guerre du Vietnam et ils n'ont quand même pas eu de problème avec les armes interdites.
Israël utilise également pas mal d'armes interdites comme le phosphore blanc, les munitions à uranium appauvri, munitions à fragmentation, blocus et restrictions de l'accès humanitaire.

Au Vietnam les USA ont tout fait :
- Utilisation de techniques de torture et de mauvais traitements
- Utilisation d'armes interdites
- Attaques contre des populations civiles

Je pense qu'on donne des drogues au soldats US, c'est pour ça qu'ils deviennent tarés.
Torture, humiliations... Les photos qui ont révélé l'horreur d'Abou Ghraib
Comme le précise Dan Rather, la plupart des photos montrent des militaires américains qui sourient devant l’objectif et qui font même parfois le signe du pouce en l’air, comme Lynndie England (encore), devant un homme nu assis sur un autre homme nu.
0  0