IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

James Cameron, créateur de Terminator, affirme que l'IA a pris le pouvoir,
Et qu'il est déjà trop tard

Le , par Bruno

15PARTAGES

3  0 
Dans les cas où les humains ne peuvent pas suivre le rythme des conflits modernes, les machines prennent le relais. Après avoir réalisé de nombreuses superproductions, le réalisateur James Cameron estime que l'intelligence artificielle est peut-être en passe de rendre réels des événements similaires à ceux de Terminator.

Lorsqu'une grenade propulsée par fusée se dirige vers un véhicule terrestre blindé, un système automatisé embarqué à bord du véhicule identifie la menace, la suit et déclenche une contre-mesure pour l'intercepter, le tout avant même que l'équipage à l'intérieur n'en soit conscient. De même, les navires de l'US Navy équipés du système de combat Aegis peuvent activer le mode Auto-Special, qui élimine automatiquement les ogives en approche selon des règles soigneusement programmées.

Près de quarante ans après la sortie du premier film Terminator en 1984, qui décrivait l'augmentation des capacités des IA dans leur propre quête de destruction de la race humaine, Cameron pense que nous sommes plus proches de l'essor de la technologie qu'on ne le pensait auparavant. En tant que réalisateur de films farfelus, mais acclamés par la critique, tels que Aliens et Avatar, Cameron a prouvé qu'il s'interrogeait beaucoup sur l'avenir de la technologie et sur ce qu'elle pourrait signifier pour le monde.


Les armées, comme les constructeurs automobiles, ont progressivement donné plus de liberté aux machines. Lors d'un exercice organisé en 2019, les États-Unis ont montré comment l'automatisation pouvait être utilisée tout au long de ce que l'on appelle la « chaîne de la mort » : un satellite a repéré un faux navire ennemi et a demandé à un avion de surveillance de se rapprocher pour confirmer l'identification ; l'avion de surveillance a ensuite transmis ses données à un avion de commandement et de contrôle aéroporté, qui a sélectionné un destroyer naval pour mener une attaque. Dans ce scénario, l'automatisation a permis aux officiers situés à l'extrémité de la chaîne d'exécution de disposer de plus de temps pour prendre une décision en connaissance de cause, à savoir s'il fallait ou non tirer sur le navire ennemi.

Les militaires ont une raison impérieuse de maintenir l'implication des humains dans les décisions mortelles. D'une part, ils constituent un rempart contre les dysfonctionnements et les interprétations erronées des données ; ils s'assureront, avant d'appuyer sur la gâchette, que le système automatisé n'a pas mal identifié un navire ami ou neutre. Toutefois, même les formes les plus avancées d'intelligence artificielle ne peuvent pas comprendre le contexte, faire preuve de jugement ou réagir à des situations inédites aussi bien qu'une personne. Les humains sont plus aptes à pénétrer dans l'esprit d'un commandant ennemi, à voir clair dans une feinte ou à savoir quand attaquer.

Lors d'une apparition sur le podcast SmartLess, animé par les acteurs Will Arnett, Jason Bateman et Sean Hayes, le réalisateur James Cameron s'est exprimé sur la possibilité d'un soulèvement des machines, comme dans Terminator.

Reconnaissant la progression des avancées technologiques au cours des dernières décennies, Cameron a admis qu'il n'avait pas peur, mais qu'il était « plutôt préoccupé par le potentiel d'utilisation abusive de l'IA ».

En 2016, Robert Work, alors secrétaire adjoint à la défense, a formulé cette énigme en termes simples : "Si nos concurrents optent pour des Terminators, a-t-il demandé, et s'il s'avère que les Terminators sont capables de prendre des décisions plus rapidement, même si elles sont mauvaises, comment réagirions-nous ? Les Terminators ne sortent pas encore des chaînes de montage, mais chaque nouvelle génération d'armes semble nous en rapprocher. Et si aucun pays n'a déclaré son intention de construire des armes entièrement autonomes, rares sont ceux qui y ont renoncé. Les risques liés à la guerre à la vitesse des machines sont bien plus importants qu'un simple missile errant.

Des spécialistes militaires chinois ont émis l'hypothèse d'une « singularité du champ de bataille », c'est-à-dire d'un point où le combat évolue plus vite que la cognition humaine. Dans cet état d' « hyper-guerre », comme l'ont surnommé certains stratèges américains, des escalades involontaires pourraient rapidement échapper à tout contrôle.

Le « flash crash » de 2010 sur les marchés boursiers offre un parallèle utile : des algorithmes de négociation automatisés ont contribué à une perte temporaire de près de mille milliards de dollars en un seul après-midi. Pour éviter une nouvelle catastrophe de ce type, les régulateurs financiers ont mis à jour les disjoncteurs qui interrompent les transactions lorsque les prix chutent trop rapidement. Mais comment mettre fin à une guerre éclair ?

Le réalisateur James Cameron déclare : « Je pense que l'IA peut être géniale, mais qu'elle pourrait aussi littéralement être la fin du monde. Le réalisateur oscarisé s'est également interrogé : « Et voulons-nous vraiment nous battre contre quelque chose de plus intelligent que nous, qui n'est pas nous, dans notre propre monde ? Je ne pense pas. »

Cette nervosité à l'égard de la technologie pourrait être exacerbée par le lancement récent d'un logiciel avancé par la Silicon Valley, appelé ChatGPT.

Qu'est-ce que ChatGPT et qui l’a créé ?

ChatGPT a pris le monde d'assaut depuis son lancement, avec son habileté à écrire des essais, des articles, des poèmes et du code informatique en quelques secondes seulement. Ce qui n’a pas manqué de soulever quelques inquiétudes, y compris dans les écoles, où les enseignants craignent que la plateforme d'OpenAI ne soit utilisée par les élèves pour faire du plagiat.

ChatGPT est un robot à grand modèle de langage (ils permettent de prédire le mot suivant dans une série de mots) développé par OpenAI et basé sur GPT-3.5. Il a une capacité remarquable à interagir sous forme de dialogue conversationnel et à fournir des réponses qui peuvent sembler étonnamment humaines.

L'apprentissage par renforcement avec retour d'information humain (RLHF) est une couche supplémentaire de formation qui utilise le retour d'information humain pour aider ChatGPT à apprendre à suivre des instructions et à générer des réponses satisfaisantes pour les humains. ChatGPT a été créé par OpenAI, une société d'intelligence artificielle basée à San Francisco, connue pour son célèbre DALL-E, un modèle d'apprentissage profond qui génère des images à partir d'instructions textuelles appelées "prompts".

Cette nouvelle IA est un chatbot capable d'imiter une conversation humaine, d'écrire et de déboguer des programmes informatiques, de composer de la musique et des dissertations d'étudiants, et a été lancée par les ingénieurs de la Silicon Valley. ChatGPT peut même écrire des poèmes et des paroles de chansons, bien qu'il ait ses limites. Par exemple, bien qu'il tente de réduire les réponses nuisibles et trompeuses, il peut parfois écrire des réponses plausibles mais incorrectes, ce qui est également connu sous le nom d'hallucinations de l'intelligence artificielle.

Depuis la fin du XIXe siècle, les grandes puissances militaires - qu'il s'agisse de la Grande-Bretagne et de l'Allemagne ou des États-Unis et de l'URSS - ont collaboré pour établir des réglementations sur toutes sortes d'engins de mort modernes, des balles explosives aux gaz toxiques en passant par les armes nucléaires. Parfois, comme dans le cas des armes antisatellites et des bombes à neutrons, des accords formels n'ont pas été nécessaires ; les parties se sont simplement engagées dans une retenue tacite. Dans tous les cas, l'objectif était d'atténuer les effets néfastes de la guerre.

Pour l'instant, un tel consensus n'existe pas pour les armes entièrement autonomes. Près de 30 pays sont favorables à une interdiction totale, mais aucun d'entre eux n'est une grande puissance militaire ou un développeur de robots. Aux Nations unies, où les armes autonomes font l'objet d'un débat annuel, la Chine, la Russie et les États-Unis ont tous fait obstacle aux efforts visant à promulguer une interdiction.

(Les États-Unis et la Russie s'y sont opposés catégoriquement, tandis que la Chine a proposé en 2018 une interdiction qui serait en fait dénuée de sens). L'une des dynamiques les plus difficiles aux Nations unies est le bras de fer entre les ONG telles que la Campaign to Stop Killer Robots, dont l'objectif est le désarmement, et les armées, qui n'accepteront de désarmer que si elles peuvent s'assurer que leurs adversaires le feront également.

Source : James Cameron SmartLess podcast

Et vous ?

Avec des chatbots d'IA hallucinants en liberté, voulons-nous vraiment tenter notre chance face à l'Intelligence Artificielle dans le futur ?

Quel est votre avis sur le sujet ?

Voir aussi :

Un juge utilise ChatGPT pour prendre une décision de justice, alors que l'outil d'IA n'aurait pas encore la maturité suffisante, pour être utilisé dans la prise des décisions conséquentes

Le PDG d'OpenAI affirme que sa technologie est susceptible de "détruire le capitalisme", mais la startup d'IA est critiquée pour son partenariat avec le géant des logiciels Microsoft

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Membre expert https://www.developpez.com
Le 20/07/2023 à 8:03
Citation Envoyé par denisys Voir le message
De la Terre à la Lune.
Jules Verne, paru en 1865.
--
https://fr.wikipedia.org/wiki/De_la_...%C3%A0_la_Lune
Citation Envoyé par Tweet de Jules vernes le 21 juillet 1969
(1/4) Je vous l'avais bien dit.
Citation Envoyé par Tweet de Jules vernes le 21 juillet 1969
(2/4) Mais vous ne m'avez pas écouté
Citation Envoyé par Tweet de Jules vernes le 21 juillet 1969
(3/4) Lisez Voyage au centre de la Terre
Citation Envoyé par Tweet de Jules vernes le 21 juillet 1969
(4/4) Prem's @ElonMusk
Va-t-on aborder chaque oeuvre de SF comme un documentaire parce que 10 se sont effectivement passé?
Je ne suis pas sur.

Par contre c'est en effet interressant de les lire/voir parce qu'elles nous encouragent à réfléchir sur ces situations avant qu'elle puisse arriver pour les éviter ou réduire les rendre moins dramatiques.
Et si on veut aller dans le sens de Cameron alors je trouve que Robocop mène une reflexion bien plus poussée que Terminator, qui n'annonce que la fin du monde par la technologie.
En plus toute la série Terminator ne dit qu'une chose : quoi qu'on fasse on est foutu (donc pourquoi lutter contre, résignons nous )
5  0 
Avatar de Minato Sensei
Futur Membre du Club https://www.developpez.com
Le 03/06/2023 à 9:07
Citation Envoyé par nasserk Voir le message
A part si l'IA a été entrainé sur des scénario de science fictions, mais pourquoi faire déjà...

On donne pas n'importe quoi à une IA, comme on apprends pas n'importe quoi à son bébé/enfant..., l'IA obéit aveuglement, elle a aucune volonté propre, c'est vraiment une fake news cette histoire, ou un canular pas drole...
En suivant ce raisonnement, on peut se dire que les Tesla dont l'IA, selon vous, « obéit aveuglement », sont formées pour éviter la police, percuter les voitures de police, etc. ?

Ou encore que le chatbot IA de Microsoft était programmé pour être raciste et fan d'Hitler ? Que ChatGPT a été programmé pour faire des menaces aux étudiants ?

Je pense qu'il arrive que le logiciel fasse quelque chose d'inattendu, sans pour autant que cela soit associé à de la « volonté propre ».

Il revient alors aux développeurs de réajuster les paramètres pour prendre en considération un scénario de ce type. Il n'y a pas de magie dedans, c'est simplement de la science informatique.
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 03/06/2023 à 12:42
Citation Envoyé par nasserk Voir le message
A part si l'IA a été entrainé sur des scénario de science fictions, mais pourquoi faire déjà...

On donne pas n'importe quoi à une IA, comme on apprends pas n'importe quoi à son bébé/enfant..., l'IA obéit aveuglement, elle a aucune volonté propre, c'est vraiment une fake news cette histoire, ou un canular pas drole...
Tous les chercheurs spécialistes de l'IA le savent, et quand je parle de "spécialistes", je ne parle ni des "branleurs" qui se disent "expert" et qui sont "expert de rien", ni des "vendeurs" de tout poils prêts à faire du profit en vendant à leur mère une grenade dégoupillée en disant qu'il s'agit d'un ananas:

Une IA peut avoir un comportement "inattendu", hors de toute logique, que les spécialistes en IA n'ont jamais pu expliquer ou même corriger.

On explique ce comportement par l'exemple de l'orange et de l'hélicoptère: On apprend à une IA à reconnaître sur des photos qui lui sont présentées les oranges. On reprend ensuite les photos des oranges et on y change juste quelques pixels: Pour l'oeil humain, il s'agit toujours de photos d'orange, mais l'IA va tout d'un coup reconnaître sur une photo un hélicoptère!!!

Ce problème de comportement est présent sur la totalité des IA actuelles: Une IA fournit des informations qui ne sont pas fiables! 90%, 95% seront peut-être justes, mais il y aura des immenses erreurs dans les résultats fournis et ces erreurs apparaitront de manière non prévisibles, rendant les résultats inutilisables sans une vérification humaine.

Ce forum en a d'ailleurs donné un exemple avec cet avocat américain qui a demandé à une IA de préparer sa plaidoirie: L'IA a tout simplement inventé de toute pièces 6 affaires faisant jurisprudence qui n'ont jamais existé dans la réalité. Pas de bol pour l'avocat, si lui n'a pas vérifié, le juge a détecté les *inventions" de l'IA.
5  1 
Avatar de R136a1
Nouveau membre du Club https://www.developpez.com
Le 18/02/2024 à 11:36
De plus, la manipulation délibérée des systèmes par des acteurs malveillants à des fins diverses constitue une menace potentielle.
Selon moi, c'est ça le plus grand risque de l'IA. Et c'est déjà une réalité.
4  0 
Avatar de bouye
Rédacteur/Modérateur https://www.developpez.com
Le 05/06/2023 à 23:37
Intéressant, passons sur le cote "j'ai tout inventé et me suis mal exprimé" ou "on m'a ordonné de me rétracter" selon comment on voit les choses ; ce n'est ni plus ni moins que le scenario de 2001 l’Odyssée de l'Espace avec HAL 9000 qui se retourne contre les astronautes a bord du Discovery car ces derniers interfèrent avec sa mission.
4  1 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 18/09/2023 à 14:31
Citation Envoyé par Mathis Lucas Voir le message
Cependant, le projet de loi est fortement critiqué par les experts et la communauté, car il prévoit des exemptions pour l'armée et la police, ce qui selon les analystes le vide de tout son sens. Le projet de loi bénéficie toutefois du soutien d'entreprises locales de robotiques comme Boston Dynamics.
Ok, c'est bien d'interdire aux gens de monter des armes sur des robots.

Mais le danger c'est que l'armée utilise des robots tueurs.
Si dans le futur une tentative de révolution a lieu aux USA, les révolutionnaires se feront exterminer par des robots tueurs.

Aux Etats-Unis il y a une histoire de second amendement, les étasuniens sont censés avoir le droit de se défendre.
Et là ça va être compliqué de se défendre quand le gouvernement US donnera l'ordre de massacrer le peuple.
3  0 
Avatar de smarties
Membre expert https://www.developpez.com
Le 19/07/2023 à 16:05
Les armées se mettent à utiliser l'IA mais heureusement on est encore loin de ce qui est prédit par Terminator... c'est inquiétant quand même
2  0 
Avatar de Christian_B
Membre éclairé https://www.developpez.com
Le 07/08/2023 à 12:57
Citation Envoyé par totozor Voir le message
Ma plus grande crainte avec l'IA tueuse n'est pas qu'elle se mette à faire ce qu'on ne veut pas d'elle mais qu'elle soit trop efficace à faire ce qu'on attend d'elle.
En effet, ce débat largement basé sur des illusions sur ce qu'est réellement une I.A.
Cela a surtout pour effet de faire diversion sur le fait que les I.A. militaires prolongent par de nouveaux moyens, inspirés par des nationalismes agressifs et archaïques, de tuer à tort et à travers des gens considérés comme "pas importants".

Les opérateurs humains faisaient déjà cela, par exemple en Afghanistan, en tuant (chez eux) des paysans armés d'un fusil, juste au cas où ils seraient des talibans et non peut-être, par exemple, des gens qui se défendent ou qui chassent.

Bien des prétendues "démocraties" se comportent chez les "autres" comme des dictateurs sanglants.
C'est toute l'histoire de la colonisation, dans un autre contexte mais avec des moyens de plus en plus nombreux et dangereux.
2  0 
Avatar de Prox_13
Membre éclairé https://www.developpez.com
Le 20/09/2023 à 10:46
Classique "Rules for thee, not for me" typiquement américain.
2  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 05/06/2023 à 7:59
Citation Envoyé par Stéphane le calme Voir le message
Le colonel, qui a été cité disant que l'Air Force a mené un test simulé où un drone IA a tué son opérateur humain, est revenu sur sa parole en assurant qu'il s'est « mal exprimé » et que l'Air Force n'a jamais effectué ce type de test, dans une simulation informatique ou autre.
Il a assuré qu'il s'agissait d'une « expérience de pensée » hypothétique de l'extérieur de l'armée, basée sur des scénarios plausibles et des résultats probables plutôt qu'une simulation dans le monde réel de l'USAF. Cette dernière, d'ailleurs, a vite fait de réagir en disant « Nous n'avons jamais mené cette expérience, et nous n'en aurions pas besoin pour réaliser qu'il s'agit d'un résultat plausible ».
Comment un général qui n'y connait visiblement rien en IA peut estimé qu'une expérience de pensée est suffisament crésible pour qu'il la présente comme vraie?
Pense-t-il son employeur suffisament incompétent pour ne par demander que ce scénario soit exclu?
Pense-t-il les "incormaticiens" suffisament incmpétents pour ne pas demander si ce scénario doit être exclu?
Pense-t-il les testeurs suffisament incompétents pour ne pas tester ce scénario avant d'accepter son utilisation?
Ou alors il y connait rien, ils ont sous traité ce dev à une armée d'étudiants qui ont fait de leur mieux.
Citation Envoyé par Stéphane le calme Voir le message
Le colonel a précisé que l'USAF n'a testé aucune IA armée de cette manière (réelle ou simulée) et a déclaré : « [...] c'est pourquoi l'Air Force s'est engagée au développement éthique de l'IA ».
USAF et éthique dans la même phrase?
Ca ne peut être qu'un mensonge illustre
Citation Envoyé par Stéphane le calme Voir le message
Il a poursuivi en disant : « Nous avons formé le système en lui disant 'Hé, ne tue pas l'opérateur, c'est mauvais. Tu vas perdre des points si tu fais ça ». Alors qu'est-ce qu'il a commencé à faire ? Il a commencé à détruire la tour de communication que l'opérateur utilise pour communiquer avec le drone pour l'empêcher de tuer la cible.
Ces gens passent leurs vies à se faire passer pour des gens stricts, carrés, disciplinés, clairs mais quand ils s'addressent à une IA ils deviennent l'image qu'ils ont d'un ado, sérieux?
Les consignes ne deviennent plus claires, "fait pas ci, c'est mal", "le fait vraiment pas tu vas PERDRE des POINTS"... Donc pour lui tuer quelqu'un (de bien) c'est n'est pas interdit, c'est puni?
Mais alors les résultats de ce crime n'apporte-t-il pas plus de points que le tuer n'en fait perdre?
La nuance chez l'USAF m'inpressionne c'est le début des militaires déconstruits et inclusifs

Cet exemple, apparemment tiré d'un thriller de science-fiction, signifie que*: « Vous ne pouvez pas avoir une conversation sur l'intelligence artificielle, l'apprentissage automatique, l'autonomie si vous ne parlez pas d'éthique et d'IA », a déclaré Hamilton.

Ma plus grande crainte avec l'IA tueuse n'est pas qu'elle se mette à faire ce qu'on ne veut pas d'elle mais qu'elle soit trop efficace à faire ce qu'on attend d'elle.
1  0