IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le projet de loi californien SB-1047 vise à prévenir les catastrophes potentielles liées à l'IA
Mais les critiques craignent que l'accent mis sur les menaces existentielles de futures IA ne nuise à la R&D

Le , par Stéphane le calme

15PARTAGES

5  0 
Pour Elon Musk l’IA est bien plus dangereuse que l'arme nucléaire
Alors que Bill Gates estime que l'IA est à la fois porteuse d’espoir et dangereuse

Elon Musk, le patron de Tesla et de SpaceX, a profité de son passage récent à la conférence South by Southwest (SXSW) qui se tenait à Austin, au Texas, pour réitérer ses avertissements concernant le danger de l’intelligence artificielle (IA). D’après Musk, « l’IA est plus dangereuse que les ogives nucléaires » et il devrait exister un organisme de réglementation supervisant le développement de cette technologie.

« Je ne suis pas normalement un partisan de la réglementation et de la surveillance - je pense qu’on devrait généralement pécher par excès de minimisation de ces choses-là, mais il s’agit d’une situation où le public court un très grave danger », a prévenu Musk.


Ce n’est pas la première fois que le patron de Tesla fait des prédictions alarmantes sur le potentiel de l’intelligence artificielle, mais sa vision pessimiste probablement motivée par le caractère incertain de l’avenir et peut être aussi la trop grande confiance en soi des concepteurs de cette technologie interpelle constamment sur la nécessité d’une surveillance et d’une réglementation étroites de l’IA. Devrait-on lui en tenir rigueur ?

Elon Musk préconise la mise en place d’un organisme public capable de vérifier que tout le monde développe l’IA en toute sécurité : « Je pense que le danger de l’IA est beaucoup plus grand que celui des ogives nucléaires, et personne ne suggérerait qu’on permette à n’importe qui de fabriquer des ogives nucléaires s’il le souhaite. Ce serait insensé », a-t-il martelé.

Son point de vue radical tranche avec la position plus modérée d’un autre philanthrope de renom issu de l’industrie technologique, Bill Gates, qui a récemment déclaré lors du 18e Symposium sur l’IA centré sur l’homme qui se tenait à l’Université de Stanford que l’intelligence artificielle est comme l’énergie nucléaire : une technologie « à la fois porteuse d’espoir et dangereuse ».

D’après le cofondateur de Microsoft, le pouvoir de l’intelligence artificielle est « tellement incroyable qu'elle entrainera une mutation profonde de la société » : certaines voies seront bonnes et d’autres mauvaises. Ce dernier reste néanmoins persuadé que l’application la plus effrayante de l’intelligence artificielle concerne la guerre, notamment les systèmes d’armement.


D’autres entités remarquables comme le fondateur de Facebook, Mark Zuckerberg, ou le professeur de Harvard Steven Pinker se sont déjà montrées plus critiques sur cette question à l’égard des propos d’Elon Musk jugés « plutôt irresponsables », selon certains, et de la « psychose orientée contre l’IA » qu’il entretiendrait au travers de son discours alarmiste.

Le patron de Tesla semble cependant résolu à ne pas se voiler la face et n’hésite pas à traiter ceux qui minimisent ou ignorent ses avertissements « d’imbéciles ». Lors du SXSW, il a déclaré : « le plus gros problème que je vois avec les soi-disant experts en IA est qu’ils pensent en savoir plus qu’ils ne savent et se croient plus intelligents qu’ils ne le sont réellement ». Selon Elon Musk, ce phénomène « a tendance à toucher les gens intelligents. Ils se définissent par leur intelligence et ils n’aiment pas l’idée qu’une machine puisse être beaucoup plus intelligente, alors ils réfutent cette idée - qui est fondamentalement défectueuse ».

S’appuyant sur le cas d’AlphaGo Zero, l’IA de DeepMind, qui a surclassé les joueurs humains au jeu de Go, Musk se dit, plus que jamais, conscient du potentiel évolutif incroyable de l’IA et de sa faculté à surpasser rapidement l’humain. Il craint que le développement de l’IA surpasse notre capacité à la gérer de manière sûre. À ce propos, il a confié : « Nous devons trouver un moyen de faire en sorte que l’avènement de la super intelligence numérique soit en symbiose avec l’humanité. Je pense que c’est la plus grande crise existentielle à laquelle nous sommes confrontés et la plus urgente ».

Dans son analyse des dangers de l’intelligence artificielle, Elon Musk établit une distinction entre les applications spécifiques à l’intelligence des machines comme les voitures autonomes et l’intelligence des machines en général. Le patron de SpaceX souhaite que tout soit mis en œuvre afin de s’assurer que, si un jour l’humanité décide collectivement que la création d’une super-intelligence numérique est la bonne décision à prendre, nous procédions en restant très très vigilants.

« Je ne suis pas vraiment inquiet à propos des projets à court terme ». Une IA mineure ne représente pas un risque particulier. Elle entrainera probablement une dislocation, des pertes d’emplois, une sophistication de l’armement et ce genre de choses, mais elle ne représente pas un risque fondamental contrairement à la super intelligence numérique, a expliqué Elon Musk.

Source : CNBC

Et vous ?

Que pensez-vous des points de vue exprimés dans cet article ?
La comparaison de l'IA avec l'arme atomique vous parait-elle judicieuse ? Pourquoi ?
Diriez-vous que le point de vue de Musk dans ce débat est plutôt alarmiste ou réaliste ?
Quel est votre avis sur les dangers liés à la création d’une d’une super-intelligence numérique ?

Voir aussi

L'IA de génération de texte d'Elon Musk trop dangereuse pour être rendue publique, selon ses créateurs
Le projet de tunnel du milliardaire de la tech Elon Musk est-il une vaste blague ? The Boring Company a inauguré son premier tunnel anti-bouchons
Neuralink, le projet d'Elon Musk pour qu'un cerveau humain interagisse directement avec un PC et l'Homme fusionne avec l'IA, aberration ou fiction ?
Elon Musk rappelle qu'en rendant publics les brevets Tesla, il a œuvré pour le bien de la planète et l'essor du marché des véhicules électriques
Vous avez lu gratuitement 3 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de phil995511
Membre éprouvé https://www.developpez.com
Le 08/10/2024 à 12:07
Le mensonge ne peut en aucun cas être rattaché à la liberté d'expression, il doit être clairement proscrit de toute forme de politique, sans quoi certains politiciens continueront à mener des campagnes de désinformation, de dénigrement d'autrui, voir de tentatives de déstabilisation de systèmes démocratiques mis en place !!!
1  0 
Avatar de eddy72
Membre régulier https://www.developpez.com
Le 08/09/2024 à 11:21
"Le traité entrera en vigueur le premier jour du mois qui suit l’expiration d’une période de trois mois après la date à laquelle cinq signataires,

dont au moins trois États membres du Conseil de l’Europe, l’auront ratifié."

Vive la simplicité !!!
0  0 
Avatar de
https://www.developpez.com
Le 09/09/2024 à 11:08
En établissant des normes juridiquement contraignantes, ce traité vise à garantir que l’IA est développée et utilisée de manière éthique et responsable, tout en protégeant les valeurs fondamentales de la société.
Quelles "valeurs" ?
0  0 
Avatar de
https://www.developpez.com
Le 19/09/2024 à 10:41
Pour veiller à ce que les lignes rouges convenues ne soient pas franchies, la déclaration préconise un cadre global d'assurance de la sécurité. Dans ce cadre, les autorités nationales chargées de la sécurité de l'IA devraient exiger des développeurs qu'ils présentent des cas de sécurité très fiables avant de déployer des modèles dont les capacités dépassent les seuils spécifiés.
Un très gros interrupteur.
Comment fait-on, au fait, pour stopper un flux stellaire ? Nous Quittons les échelles et entrons dans les magnitudes.
0  0