IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« Nous ne devrions pas réglementer l'IA sans relever des dommages significatifs », selon un économiste de Microsoft
Qui est d'avis que « la délivrance des permis fait suite à plusieurs accidents »

Le , par Patrick Ruiz

29PARTAGES

6  0 
Les appels à réglementer l’utilisation de l’intelligence artificielle se multiplient à l’échelle mondiale. En Europe comme aux USA, des voix s’élèvent pour demander la mise sur pied de lois destinées à encadrer l’usage de cette technologie. On semble en avance sur la question en Chine avec la récente introduction d’une proposition de loi sur l’intelligence artificielle générative. Le chef économiste de Microsoft laisse cependant penser qu’il s’agit d’initiatives prématurées. « Nous ne devrions pas réglementer l’intelligence artificielle tant que nous n’avons pas noté des dommages significatifs », déclare-t-il lors d’une récente sortie au Forum économique mondial.



« La première fois que nous avons commencé à exiger le permis de conduire, c'était après que des dizaines de personnes soient mortes dans des accidents de voiture et c'était la bonne chose à faire.
Si nous avions exigé le permis de conduire là où il y avait les deux premières voitures sur la route, cela aurait été une grave erreur. Nous aurions complètement gâché cette réglementation. Il faut qu'il y ait au moins un petit préjudice, pour que nous puissions voir quel est le vrai problème », souligne-t-il.

Michael Schwarz est pour une réglementation de l’intelligence artificielle qui se fera non pas sur la base de scénarios imaginaires, mais sur des faits concrets. L’approche devrait permettre la mise sur pied d’une réglementation qui n’induise pas de périls pour les avantages potentiels de l’intelligence artificielle.


Microsoft alerte pourtant sur les dommages susceptibles de résulter de l’utilisation de l’IA par des acteurs malveillants

C’est encore le chef économiste de Microsoft, Michael Schwarz, qui relève que l’intelligence artificielle sera dangereuse entre les mains des personnes malveillantes : « Elle peut faire beaucoup de mal entre les mains de spammeurs avec les élections et ainsi de suite ».

L’intelligence artificielle (IA) générative est une technologie qui permet de créer du texte, des images, des sons ou des vidéos à partir de données existantes ou de zéro. Un exemple d’IA générative est ChatGPT, un outil développé par OpenAI qui peut produire des réponses cohérentes et naturelles à des requêtes variées. Chatgpt utilise un modèle d’apprentissage profond appelé GPT-4, qui contient environ 500 milliards de paramètres et qui a été entraîné sur une grande quantité de textes provenant d’Internet.

Si cette technologie offre des possibilités fascinantes pour la créativité, l’éducation, le divertissement ou la communication, elle présente aussi des risques importants pour la société et l’humanité. Voici quelques-uns de ces dangers :

  • La désinformation et la manipulation : l’IA générative peut être utilisée pour créer du contenu faux ou trompeur, comme des fake news, des faux témoignages, des faux avis ou des faux profils. Ces contenus peuvent influencer l’opinion publique, la démocratie, les élections ou les comportements des consommateurs. Distinguer le vrai du faux et vérifier les sources d’information devient alors de plus en plus difficile.
  • La perte d’authenticité et de confiance : l’IA générative peut être utilisée pour imiter la voix, le visage ou le style d’une personne réelle ou fictive, sans son consentement ou sa connaissance. Ces imitations peuvent porter atteinte à la vie privée, à la réputation ou à l’identité des personnes concernées. Elles peuvent aussi créer de la confusion, de la méfiance ou de la déception chez les destinataires du contenu. Savoir qui parle et dans quel but devient complexe.
  • L’éthique et la responsabilité : l’IA générative peut être utilisée pour créer du contenu offensant, illégal ou immoral, comme des discours de haine, des incitations à la violence, des contenus pornographiques ou pédophiles. Ces contenus peuvent nuire à la dignité, à la sécurité ou au bien-être des personnes visées ou exposées. Contrôler, réguler ou sanctionner ces usages malveillants n'est plus aussi simple qu'auparavant.
  • L’impact sur les relations humaines : l’IA générative peut être utilisée pour remplacer ou simuler des interactions humaines, comme des conversations, des émotions, des sentiments ou des conseils. Ces interactions peuvent avoir des effets positifs ou négatifs sur la santé mentale, le développement personnel ou le lien social des personnes impliquées. Il devient de plus en plus difficile de distinguer l’humain du non-humain et de préserver l’authenticité et la sincérité des relations.

L'une des illustrations que nous pouvons donner est ce cliché, qui est devenu viral sur Twitter mettant sur scène un vieillard au visage ensanglanté, manifestement violenté par les forces de l'ordre. Le contexte était la mobilisation contre la réforme des retraites en France et l'homme âgé était présenté comme un manifestant vraisemblablement interpellé par des policiers.

Des journalistes et experts de la reconnaissance des fake sur Internet se sont penchés sur le sujet. Selon Guillaume Brossard, le créateur du site HoaxBuster, et l’Agence France Presse, il n’y a que peu de doutes : l’image en question présente certains défauts, qui sont le signe d’une création par un logiciel, et probablement Midjourney. Mais la possibilité du réel, et surtout la difficulté à trancher facilement la question, a de quoi inquiéter.



C’est la raison pour laquelle des experts demandent à tous les laboratoires d’IA d’interrompre la formation de systèmes d’IA plus puissants que GPT-4

Au début du mois, OpenAI, soutenue par Microsoft, a dévoilé la quatrième itération de son programme d'IA GPT (Generative Pre-trained Transformer), qui a séduit les utilisateurs par sa vaste gamme d'applications, allant de l'engagement des utilisateurs dans une conversation de type humain à la composition de chansons et au résumé de longs documents.

La lettre, publiée par l'organisation à but non lucratif Future of Life Institute et signée par plus de 1 000 personnes, dont Musk, appelle à une pause dans le développement de l'IA avancée jusqu'à ce que des protocoles de sécurité partagés pour de telles conceptions soient élaborés, mis en œuvre et contrôlés par des experts indépendants.

« Des systèmes d'IA puissants ne devraient être développés qu'une fois que nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables », peut-on lire dans la lettre.

La lettre détaille les risques potentiels pour la société et la civilisation que représentent les systèmes d'IA compétitifs pour les humains, sous la forme de perturbations économiques et politiques, et appelle les développeurs à travailler avec les décideurs politiques sur la gouvernance et les autorités de régulation.

Parmi les cosignataires figurent Emad Mostaque, PDG de Stability AI, des chercheurs de DeepMind, propriété d'Alphabet (GOOGL.O), et des poids lourds de l'IA, Yoshua Bengio, souvent considéré comme l'un des "parrains de l'IA", et Stuart Russell, pionnier de la recherche dans ce domaine.

Selon le registre de transparence de l'Union européenne, Future of Life Institute est principalement financé par la Musk Foundation, ainsi que par le groupe Founders Pledge, basé à Londres, et la Silicon Valley Community Foundation.

Ces inquiétudes surviennent alors qu'Europol, la police de l'Union européenne, s'est jointe lundi 27 mars 2023 à un concert de préoccupations éthiques et juridiques concernant l'IA avancée telle que ChatGPT, mettant en garde contre l'utilisation abusive potentielle du système dans des tentatives de phishing, de désinformation et de cybercriminalité.

Dans le même temps, le gouvernement britannique a dévoilé des propositions pour un cadre réglementaire adaptable autour de l'IA. L'approche du gouvernement, décrite dans un document d'orientation publié il y a peu, répartirait la responsabilité de la gestion de l'intelligence artificielle entre les organismes de réglementation des droits de l'Homme, de la santé et de la sécurité, et de la concurrence, plutôt que de créer un nouvel organisme dédié à la technologie.

Les systèmes d'IA dotés d'une intelligence compétitive avec celle de l'Homme peuvent présenter des risques profonds pour la société et l'humanité, comme le montrent des recherches approfondies et comme le reconnaissent les principaux laboratoires d'IA. Comme l'indiquent les principes d'IA d'Asilomar, largement approuvés, l'IA avancée pourrait représenter un changement profond dans l'histoire de la vie sur Terre, et devrait être planifiée et gérée avec l'attention et les ressources nécessaires. Malheureusement, ce niveau de planification et de gestion n'existe pas, même si les derniers mois ont vu les laboratoires d'IA s'enfermer dans une course incontrôlée pour développer et déployer des esprits numériques toujours plus puissants que personne - pas même leurs créateurs - ne peut comprendre, prédire ou contrôler de manière fiable.

Les systèmes d'IA contemporains deviennent aujourd'hui compétitifs pour les tâches générales, et nous devons nous poser la question : Devons-nous laisser les machines inonder nos canaux d'information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus. Les systèmes d'IA puissants ne doivent être développés que lorsque nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables. Cette confiance doit être bien justifiée et augmenter avec l'ampleur des effets potentiels d'un système. La récente déclaration de l'OpenAI concernant l'intelligence artificielle générale indique qu'"à un moment donné, il pourrait être important d'obtenir un examen indépendant avant de commencer à former les futurs systèmes, et pour les efforts les plus avancés d'accepter de limiter le taux de croissance du calcul utilisé pour créer de nouveaux modèles". Nous sommes d'accord. C'est maintenant qu'il faut agir.

C'est pourquoi nous demandons à tous les laboratoires d'IA d'interrompre immédiatement, pendant au moins six mois, la formation de systèmes d'IA plus puissants que le GPT-4. Cette pause devrait être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut être mise en place rapidement, les gouvernements devraient intervenir et instituer un moratoire.

Les laboratoires d'IA et les experts indépendants devraient profiter de cette pause pour élaborer et mettre en œuvre conjointement un ensemble de protocoles de sécurité communs pour la conception et le développement de l'IA avancée, rigoureusement contrôlés et supervisés par des experts externes indépendants. Ces protocoles devraient garantir que les systèmes qui y adhèrent sont sûrs au-delà de tout doute raisonnable, ce qui ne signifie pas une pause dans le développement de l'IA en général, mais simplement un recul par rapport à la course dangereuse vers des modèles de boîte noire toujours plus grands et imprévisibles, dotés de capacités émergentes.

La recherche et le développement dans le domaine de l'IA devraient être recentrés sur l'amélioration de la précision, de la sécurité, de l'interprétabilité, de la transparence, de la robustesse, de l'alignement, de la fiabilité et de la loyauté des systèmes puissants et modernes d'aujourd'hui.

Parallèlement, les développeurs d'IA doivent collaborer avec les décideurs politiques pour accélérer considérablement le développement de systèmes robustes de gouvernance de l'IA. Ceux-ci devraient au minimum inclure : de nouvelles autorités réglementaires compétentes dédiées à l'IA ; la surveillance et le suivi des systèmes d'IA hautement performants et des grands pools de capacité de calcul ; des systèmes de provenance et de filigrane pour aider à distinguer le réel du synthétique et pour suivre les fuites de modèles ; un écosystème robuste d'audit et de certification ; la responsabilité pour les dommages causés par l'IA ; un financement public robuste pour la recherche technique sur la sécurité de l'IA ; et des institutions dotées de ressources suffisantes pour faire face aux perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l'IA provoquera.

L'humanité peut jouir d'un avenir florissant grâce à l'IA. Ayant réussi à créer des systèmes d'IA puissants, nous pouvons maintenant profiter d'un "été de l'IA" au cours duquel nous récolterons les fruits de nos efforts, concevrons ces systèmes pour le plus grand bénéfice de tous et donnerons à la société une chance de s'adapter. La société a mis en pause d'autres technologies aux effets potentiellement catastrophiques pour elle, et nous pouvons faire de même ici. Profitons d'un long été de l'IA et ne nous précipitons pas sans préparation vers l'automne.
Source : vidéo WEF

Et vous ?

Quel est votre avis sur le sujet ?
Partagez-vous l’avis de Michael Schwarz ?

Voir aussi :

Les IA inamicales constituent-elles le plus grand risque pour l'humanité ? Oui, d'après le créateur d'Ethereum qui s'attend à une future catastrophe, causée par l'intelligence artificielle générale

« Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk, dont une société développe des puces à insérer dans le cerveau pour contrer l'IA

Un chercheur de Google Deepmind cosigne un article selon lequel l'IA éliminera l'humanité et ravive les débats sur la possibilité d'un futur où la machine domine sur l'Homme

L'apocalypse s'accomplira-t-elle avec la création de l'IA ? L'entrepreneur Elon Musk pense que l'IA est la plus grande menace de l'humanité

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de defZero
Membre extrêmement actif https://www.developpez.com
Le 06/05/2023 à 15:30
La première fois que nous avons commencé à exiger le permis de conduire, c'était après que des dizaines de personnes soient mortes dans des accidents de voiture et c'était la bonne chose à faire.
Si nous avions exigé le permis de conduire là où il y avait les deux premières voitures sur la route, cela aurait été une grave erreur. Nous aurions complètement gâché cette réglementation. Il faut qu'il y ait au moins un petit préjudice, pour que nous puissions voir quel est le vrai problème
Michael Schwarz
Je serais d'avis que l'on réserve les premiers "morts par IA" à ce Monsieur et son entourage et que l'on vienne le voir après coups pour lui reposer la question de la réglementation.
Qu'est-ce que vous en dites ? Changera d'avis ou pas ?

Je pense que toute mort évitable devrait l'être, point.
Si l'on sais par avance que le cas pourrait ce produire, il faudrait vraiment être idiot, ou avoir des intérêt financier en jeux, pour clamer le contraire (comme pour les premières automobile et la collusion entre politiques et capitaines d'industries).
... Oh;, mais je croit bien que c'est le même cas de figure .
3  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 19/09/2024 à 7:47
Ma question est probablement très bête mais : la meilleure manière que ChatGPT ne nous fournisse pas des informations préjudiciables n'est il pas qu'il ne les ingère pas?
La réponse est probablement qu'étant "capable de raisonnement" si on ne lui donne pas la recette il sera quand même capable de la reproduire.
Mais certaines informations ne sont elles pas suffisamment délicates pour qu'elles deviennent très vagues : "Il ne faut pas mélanger A avec B parce que c'est dangereux". Dangereux regroupant toxique, explosif, corrosif, etc

ChatGPT s'est probablement amélioré depuis mais fut un temps il suffisait de décomposer le l'objectif en sous objectifs puis de lui demander de résumer les dernières réponses : sa conclusion ressemblait "Allez aux USA"
3  0 
Avatar de onilink_
Membre émérite https://www.developpez.com
Le 06/05/2023 à 15:50
Tout à fait. Et je trouve son exemple idiot. Les premières voitures étaient par nature limités à des vitesses très basses comparé à ce que l'on a aujourd'hui, donc ça diminuait naturellement les risques d'accidents.

Tout risque qui peut être évalué en amont doit être géré au plus tôt...
Surtout qu'on parle de technologies qui vont toucher des millions de personnes, et qui ont un potentiel néfaste extrêmement grand.
Bref, c'est le genre de sujet qu'il faut laisser à des gens qui savent de quoi ils parlent. Pas à un mec qui fait des comparaisons hasardeuses.
2  0 
Avatar de nikau6
Membre extrêmement actif https://www.developpez.com
Le 01/04/2024 à 8:35
Citation Envoyé par Coeur De Roses Voir le message
Je suis d'accord qu'il ne faut pas attendre de subir des dégats avant de fabriquer un bouclier en quelque sorte. Malheuresement, cet état d'esprit manque parfois à notre société en général, pas toujours.
Les dégâts les plus importants et les plus graves qui vont arriver avec l'IA sont le nombre de personnes qui vont se retrouver au chômage d'ici 10-15 ans. Et dans pleins de domaines. Les conséquences sociales vont être dramatiques. A moins que l'on change de modèle de société et que l'on passe au revenu universel. Sinon, la société qui s'annonce sera dystopique. Des bidonvilles dans lesquels vivront 90% de la population et des villes ultras modernes et sécurisées dans lesquelles vivront les autres.
L'oligarchie va pouvoir réaliser son rêve. Se débarrasser d'un peuple qui lui cause bien des soucis. Et si nous vient l’idée de nous révolter ils nous enverront des drones contre lesquels on ne pourra rien.

La question qui se pose est : "Doit-on faire quelque chose simplement parce qu'on peut le faire ?"
Quelle réflexion politique avons nous sur le sujet ? Est-il normal que des entreprises privés balancent ce genre de programmes sans se soucier des conséquences ? Devraient-elles en avoir le droit ? L'état ne devrait-il pas prendre en charge les programmes d'IA et interdire leur développement au privé ?

EDIT : On peut facilement comprendre que le militaire a un droit de véto sur toute technologie avant qu'elle ne soit rendues publique. Ce qui veut dire que si le public a accès à des IA déjà très sophistiquées, les militaires ont au moins 10 ans d'avance dans le domaine. Ce qui est également très inquiétant.
Dans un futur peut être très proche, les programmeurs qui auront participé qu développement de l'IA auront peut être autant de regrets qu'en ont eu les scientifiques qui ont participé á développer l'arme atomique. Au vu des conséquences potentiellement désastreuses pour l'humanité.
Et ceux qui voudraient me répondre que je suis pessimiste, je leurs répondrais que l'on a des siècles d'histoire derrière nous qui ne peuvent que nous rendre pessimiste sur le sujet.
2  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 07/07/2023 à 1:20
Citation Envoyé par Stéphane le calme  Voir le message
[
Que pensez-vous du plan d’OpenAI de créer une équipe de recherche sur la superintelligence (dont l'intelligence serait « supérieure » à celle de l'homme) alors que nous n'en sommes même pas encore à l'intelligence artificielle générale (dont l'intelligence serait « équivalente » à celle de l'homme) ?

Un simple effet d'annonce. Peut-être causé par ça: ChatGPT est confronté pour la première fois à une baisse de trafic après une croissance explosive depuis son lancement
ce qui suggère que la frénésie suscitée par le chatbot commence à s'estomper
1  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 01/04/2024 à 10:12
Sur les 1 539 personnes interrogées qui utilisent la GenAI pour le développement et le test de logiciels, les applications les plus courantes sont l'écriture ou le débogage de code (51 %), les rapports de test (48 %), l'élaboration de cas de test (46 %) et la création d'applications (42 %). GitHub Copilot est l'outil le plus populaire pour l'aide au codage (41 % des répondants), suivi par OpenAI Codex (24 % des répondants).
Ouaaaaaaaaaaah... Impressionnant!

Et quand est-ce que l'on peut avoir une démonstration réelle nous montrant comment ces 1539 personnes interrogées font tout ce qu'ils disent avec l'IA?

Je pose naïvement la question parce que si je vous dis que j'ai fait le tour de France en équilibre sur les mains vous allez me demander d'en faire la preuve...
1  0 
Avatar de Gluups
Membre émérite https://www.developpez.com
Le 19/09/2024 à 7:50
À force qu'ils fassent les cons, il va finir par falloir les priver d'accès à Internet.
2  1 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 06/05/2023 à 22:22
Deux jours plus tôt, il y avait cet article :

L'IA causera « des dommages réels » : Microsoft alerte sur les risques de son utilisation par des acteurs malveillants
https://intelligence-artificielle.de...rs-potentiels/
0  0 
Avatar de HaryRoseAndMac
Membre extrêmement actif https://www.developpez.com
Le 07/05/2023 à 14:47
En parlant de dommages significatifs, une startup est venu nous voir en début de semaine (encore une), qui a fait développer son logiciel par des développeurs, je les cites "prompt engineer".

En gros, ce sont des gens qui sont nulle à chier en dev, payé un SMIC, et qui ont utilisé ChatGPT de A à Z, pour créer l'application mobile.
Ils ont demandés à ChatGPT de le faire avec les bonnes pratiques, les meilleurs optimisations possibles, ...

Ca a tellement bien marché, qu'impossible de poster leur application sur le google store puisqu'elle ne passe pas le contrôle qualité.
On a repris leur truc, comment dire ... C'est un carnage.

Des librairies dépréciées, du code totalement inutile, aux mauvais endroits dans l'architecture, qui fait appel plusieurs fois aux mêmes choses, qui utilisent des méthodes natives qu'on utilise plus depuis un moment, ...

Bref, un bon 60% du code à refaire.
Et ça, c'est quasiment le prix de l'application.

Donc forcément, ces jeunes entrepreneurs dynamique lycornés ont pouffés, dit que finalement ils allaient demander à des indiens de le faire pour trois fois rien et on les a inviter à le faire avec plaisir.

Encore une application qui va finir à la poubelle et encore des financements jetés par la fenêtre.

Ces gens là, il n'y a rien à faire, ne comprennent pas qu'ils feraient mieux d'employer un seul Freelance sénior, qui ferait leur application de A à Z, qui à la fin va fonctionner, sera en ligne et oui, aura couté plus cher que des employés aux smic ou des indiens, mais à la fin va leur rapporter 10 fois plus, plutôt que de faire appel à des "prompt engineer" ...
0  0 
Avatar de onilink_
Membre émérite https://www.developpez.com
Le 07/05/2023 à 23:40
A chaque fois que je lis "prompt engineer" ça me fait penser à the "Infinite monkey theorem"
0  0