IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI supprime discrètement l'interdiction d'utiliser ChatGPT à des fins "militaires et de guerre"
Une décision lourde de conséquences à cause de l'utilisation croissante de l'IA dans les conflits

Le , par Jade Emy

14PARTAGES

8  0 
OpenAI supprime l'interdiction des termes "militaire et guerre" de sa politique d'autorisation d'utilisation. "Compte tenu de l'utilisation de systèmes d'IA dans le ciblage des civils à Gaza, la décision de supprimer ces mots est un moment important", a averti un analyste politique.

Le fabricant de ChatGPT, OpenAI, a discrètement supprimé de sa politique d'utilisation les termes interdisant l'utilisation militaire de sa technologie, une décision qui a de sérieuses implications compte tenu de l'utilisation croissante de l'intelligence artificielle sur les champs de bataille, y compris à Gaza.

Sam Biddle, de The Intercept, a rapporté qu'avant le 10 janvier, la page d'autorisation d'utilisation d'OpenAI interdisait les "activités présentant un risque élevé de dommages physiques", notamment "le développement d'armes" et "l'armée et la guerre".

Bien que la nouvelle politique de l'entreprise stipule que les utilisateurs ne doivent pas nuire à des êtres humains ou "développer ou utiliser des armes", les experts ont déclaré que la suppression des termes "militaire et guerre" laisse la porte ouverte à des contrats lucratifs avec l'armée américaine et d'autres armées.


"Compte tenu de l'utilisation de systèmes d'IA dans le ciblage des civils à Gaza, la décision de supprimer les termes "militaire et de guerre" de la politique d'autorisation d'utilisation d'OpenAI est un moment important", a déclaré à The Intercept Sarah Myers West, directrice générale de l'AI Now Institute et ancienne analyste de la politique en matière d'IA à la Federal Trade Commission. "Le langage utilisé dans la politique reste vague et soulève des questions sur la manière dont OpenAI entend aborder l'application de la loi", a-t-elle ajouté.

Niko Felix, porte-parole d'OpenAI, a déclaré à The Intercept que l'entreprise "visait à créer un ensemble de principes universels qui soient à la fois faciles à retenir et à appliquer, d'autant plus que nos outils sont désormais utilisés à l'échelle mondiale par des utilisateurs quotidiens qui peuvent également construire des TPG". 'Un principe tel que "ne pas nuire à autrui" est large mais facile à comprendre et pertinent dans de nombreux contextes", a ajouté M. Felix. "En outre, nous avons spécifiquement cité les armes et les blessures infligées à autrui comme des exemples clairs."


Les progrès de l'IA s'accompagnent d'une militarisation croissante. Les experts avertissent que les applications de l'IA, y compris les systèmes d'armes autonomes létaux, communément appelés "robots tueurs", pourraient constituer une menace potentiellement existentielle pour l'humanité, ce qui souligne la nécessité de prendre des mesures de contrôle des armements pour ralentir le rythme de l'arsenalisation.

Tel est l'objectif de la législation sur les armes nucléaires présentée l'année dernière au Congrès américain. La loi bipartisane "Block Nuclear Launch by Autonomous Artificial Intelligence Act", présentée par le sénateur Ed Markey (D-Mass.) et le représentant Ted Lieu (D-Calif.), a été adoptée par le Congrès l'année dernière. Ted Lieu (D-Calif.), Don Beyer (D-Va.) et Ken Buck (R-Colo.) - affirme que "toute décision de lancer une arme nucléaire ne devrait pas être prise" par l'IA.

Sources : Sam Biddle (The Intercept), Politique d'autorisation d'utilisation (OpenAI)

Et vous ?

Pensez-vous que ce changement dans la politique d'autorisation d'utilisation d'OpenAI est crédible ou pertinent ?
Quel est votre avis sur le sujet ?

Voir aussi :

Les États-Unis commencent à étudier la possibilité de réglementer les systèmes d'IA comme ChatGPT pour garantir que ces technologies soient légales, efficaces, éthiques, sûres et dignes de confiance

Intelligence artificielle et armement : les présidents Joe Biden et Xi Jinping s'engagent à interdire l'IA dans les armes autonomes, telles que les drones et le contrôle des ogives nucléaires

Israël utilise des essaims de drones autonomes pour traquer et anéantir le Hamas sans intervention humaine : L'IA doit-elle avoir le droit de vie ou de mort sur le champ de bataille ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de sylsau
Membre confirmé https://www.developpez.com
Le 18/01/2024 à 14:19
L'avidité et la cupidité des humains finit toujours par l'emporter sur les bonnes intentions initiales. On parle de nouveau monde, mais fort heureusement, on voit que les fondamentaux sont toujours là !
1  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 14/01/2024 à 17:19
Et si des pirates prennent la main sur le pentagone ou l'arsenal russe utilisant chat gpt pour déclencher la 3ème ? Il se passe quoi en fait ? Que ce soit autorisé ou non ?
1  1 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 16/01/2024 à 15:14
Citation Envoyé par marsupial Voir le message
Et si des pirates prennent la main sur le pentagone ou l'arsenal russe utilisant chat gpt pour déclencher la 3ème ? Il se passe quoi en fait ? Que ce soit autorisé ou non ?
Nos dirigeant se fendent d'un tweet indigné et on regarde les etats-unis/chine décidé quoi faire et avec un peu de chance pour une fois ce sera une guerre sans pays interposés.
0  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 16/01/2024 à 15:23
Et cela étonne qui?

Vouloir faire du pognon à tout prix sans la moindre morale ou éthique,,, C'est bien ce qui était reproché au patron emblématique de OpenAI. Raison pour laquelle il a été viré par son conseil d'administration avant d'être remis au pouvoir par les financiers de OpenAI dont au premier rang Microsoft, non?

Ben maintenant le monde sait au moins que ce qui lui était reproché était bien réel.

Et quel financier serait prêt à faire une croix sur le domaine militaire... Avec toutes les guerres actuelles ou à venir, les affaires vont être florissantes!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
1  1 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 17/01/2024 à 11:24
1. Créer une société à but non lucratif pour attirer des financement d'entreprises qui autrement seraient des concurrents. Mais pas de militaire, hein, nous on est les gentils.
2. Changer le statut à "but lucratif plafonné", parce que bon, on est pas complétement des pigeons et Microsoft pourrait pas entrer dans le game. Mais pas de militaires hein.
3. ...

4. Profits
4bis.

Et dire que c'est parce que c'était prévisible qu'ils ont commencé par être à but non lucratif et se restreindre à ne pas s'approcher du militaire...
0  0 
Avatar de unanonyme
Membre éclairé https://www.developpez.com
Le 17/01/2024 à 12:21
non mais faut revenir sur terre.

l'armée us a sur son sol la prétendue meilleure société d'AI au monde,
ou du moins un prétendant sérieux, le deal est simple,
soit ils prennent le gros contrat avec le pognon pour faire genre c'est la société de consommation et de la concurrence économique / chill touvabien,
soit ils se font dégager manu-militari, et si il le faut ils lui pointe un revolver sur la tempe pour bien lui faire comprendre qui est le patron.

c'était couru d'avance.

Il aurait mieux fait de prétendre patauger dans son problème d'IA,
il aurait finit sa carrière dans un labo,
il a préféré crier sur tous les toits du monde qu'il y avait un truc magique dans l'univers
et qu'il lui donnait une nouvelle incarnation dans son labo.

ni une ni deux, ça n'a pas loupé.

0  0 
Avatar de unanonyme
Membre éclairé https://www.developpez.com
Le 17/01/2024 à 17:40
le btc, contraire crypto-scam, va bien.
0  0 
Avatar de unanonyme
Membre éclairé https://www.developpez.com
Le 17/01/2024 à 19:30
Bonjour,

il n'y a pas de préférences à avoir, ils sont pris à leurs propre piège du consumérisme et de la compétition que cela engendre.

Dans la logique des nations, et je ne suis pas forcément pro-mondialisme en disant cela, ce n'est pas un choix qui est à la portée des dirigeants.

Surtout que cette techno est différente de la bombe nucléaire car elle peut être développée de manières totalement sous-terraine,
ou au grand jour à travers le productivisme.
Le nucléaire étant détectable, puisqu'il faut bien tester les bombes,
et que cela est traçable en utilisant la sismographie, les adversaires peuvent savoir
si les accords de non-nucléarisation sont caduques sans le demander à l'adversaire.
Ce qui n'est pas le cas de la robotisation des armées.

l'intelligence s'en branle, elle gagne pendant qu'on se fait la guerre, fusse t'elle seulement économique.

L’innovation fait son œuvre, nouvelle techno, nouveau monde.
0  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 16/01/2024 à 15:28
Citation Envoyé par marsupial Voir le message
Et si des pirates prennent la main sur le pentagone ou l'arsenal russe utilisant chat gpt pour déclencher la 3ème ? Il se passe quoi en fait ? Que ce soit autorisé ou non ?
Ce qui change est que dans le cas d'un piratage, OpenAI est une victime et que dans l'autre, OpenAI fait du fric sur les morts qu'elle engendre...

Mais effectivement pour certains, cela relève du détail...
0  1 
Avatar de stigma
Membre expérimenté https://www.developpez.com
Le 17/01/2024 à 16:38
ça nous promet un beau b....l si ça commence comme ça :
https://www.futura-sciences.com/tech...ournee-107864/
0  1