IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA causera « des dommages réels » : Microsoft alerte sur les risques de son utilisation par des acteurs malveillants
Et appelle à une réglementation de l'IA face aux dangers potentiels

Le , par Stéphane le calme

2PARTAGES

9  0 
Le chef économiste de Microsoft, Michael Schwarz, a affirmé que l’intelligence artificielle (IA) sera dangereuse entre les mains de personnes malveillantes. « Je suis convaincu que l’IA sera utilisée par des acteurs malveillants, et oui, elle causera de réels dommages », a déclaré Schwarz lors d’un panel du Forum économique mondial à Genève mercredi. « Elle peut faire beaucoup de mal entre les mains de spammeurs avec les élections et ainsi de suite ».

L’intelligence artificielle (IA) générative est une technologie qui permet de créer du texte, des images, des sons ou des vidéos à partir de données existantes ou de zéro. Un exemple d’IA générative est ChatGPT, un outil développé par OpenAI qui peut produire des réponses cohérentes et naturelles à des requêtes variées. Chatgpt utilise un modèle d’apprentissage profond appelé GPT-4, qui contient environ 500 milliards de paramètres et qui a été entraîné sur une grande quantité de textes provenant d’Internet.

Si cette technologie offre des possibilités fascinantes pour la créativité, l’éducation, le divertissement ou la communication, elle présente aussi des risques importants pour la société et l’humanité. Voici quelques-uns de ces dangers :
  • La désinformation et la manipulation : l’IA générative peut être utilisée pour créer du contenu faux ou trompeur, comme des fake news, des faux témoignages, des faux avis ou des faux profils. Ces contenus peuvent influencer l’opinion publique, la démocratie, les élections ou les comportements des consommateurs. Distinguer le vrai du faux et vérifier les sources d’information devient alors de plus en plus difficile.
  • La perte d’authenticité et de confiance : l’IA générative peut être utilisée pour imiter la voix, le visage ou le style d’une personne réelle ou fictive, sans son consentement ou sa connaissance. Ces imitations peuvent porter atteinte à la vie privée, à la réputation ou à l’identité des personnes concernées. Elles peuvent aussi créer de la confusion, de la méfiance ou de la déception chez les destinataires du contenu. Savoir qui parle et dans quel but devient complexe.
  • L’éthique et la responsabilité : l’IA générative peut être utilisée pour créer du contenu offensant, illégal ou immoral, comme des discours de haine, des incitations à la violence, des contenus pornographiques ou pédophiles. Ces contenus peuvent nuire à la dignité, à la sécurité ou au bien-être des personnes visées ou exposées. Contrôler, réguler ou sanctionner ces usages malveillants n'est plus aussi simple qu'auparavant.
  • L’impact sur les relations humaines : l’IA générative peut être utilisée pour remplacer ou simuler des interactions humaines, comme des conversations, des émotions, des sentiments ou des conseils. Ces interactions peuvent avoir des effets positifs ou négatifs sur la santé mentale, le développement personnel ou le lien social des personnes impliquées. Il devient de plus en plus difficile de distinguer l’humain du non-humain et de préserver l’authenticité et la sincérité des relations.

L'une des illustrations que nous pouvons donner est ce cliché, qui est devenu viral sur Twitter mettant sur scène un vieillard au visage ensanglanté, manifestement violenté par les forces de l'ordre. Le contexte était la mobilisation contre la réforme des retraites en France et l'homme âgé était présenté comme un manifestant vraisemblablement interpellé par des policiers.

Des journalistes et experts de la reconnaissance des fake sur Internet se sont penchés sur le sujet. Selon Guillaume Brossard, le créateur du site HoaxBuster, et l’Agence France Presse, il n’y a que peu de doutes : l’image en question présente certains défauts, qui sont le signe d’une création par un logiciel, et probablement Midjourney. Mais la possibilité du réel, et surtout la difficulté à trancher facilement la question, a de quoi inquiéter.

Des personnes malveillantes pourraient faire beaucoup de dégât avec l'IA, prévient Michael Schwarz

Face à ce qui devient progressivement la nouvelle réalité numérique, l'économiste en chef de Microsoft, Michael Schwarz, a affirmé que l'intelligence artificielle serait dangereuse entre les mains de personnes sans scrupules.

« Je suis convaincu que l'IA sera utilisée par des personnes malveillantes, et oui, cela causera de réels dommages », a déclaré Schwarz lors du panel du Forum économique mondial à Genève mercredi. Il a ajouté que dans les mains des spammeurs, cela peut faire beaucoup de mal aux élections et à d'autres questions d'intérêt public. L'IA doit être réglementée, a-t-il averti, mais seulement après que la technologie a causé un « véritable préjudice ».

Les outils d’intelligence artificielle font l’objet d’un examen accru depuis que leur utilisation a explosé ces derniers mois suite au lancement de ChatGPT. Les décideurs politiques tentent de faire pression sur les entreprises pour qu’elles mettent en place des garde-fous autour de la technologie émergente.

« Une fois que nous verrons un réel préjudice, nous devrons nous poser la question simple : ‘Pouvons-nous réglementer cela d’une manière où les bonnes choses qui seront empêchées par cette réglementation sont moins importantes ?’ », a déclaré Schwarz. « Les principes devraient être que les bénéfices de la réglementation pour notre société devraient être supérieurs au coût pour notre société ».

Aujourd'hui, la vice-présidente américaine Kamala Harris va rencontrer les PDG de Microsoft, Alphabet Inc. et OpenAI Inc. pour discuter des moyens de réduire le risque de dommages causés par les technologies d’IA. Microsoft travaille à ériger des garde-fous pour aider à atténuer le danger potentiel des outils d’IA, a déclaré Schwarz. La société utilise déjà le ChatGPT d’OpenAI dans son produit de recherche Bing, et Google a lancé son rival Bard chatbot en mars.

Schwarz a mis en garde contre le fait que les décideurs politiques devraient faire attention à ne pas réglementer directement les ensembles de données d’entraînement de l’IA. « Ce serait assez désastreux », a-t-il dit. « Si le Congrès devait prendre ces décisions sur les ensembles de données d’entraînement, bonne chance à nous ».


Conclusion

Malgré les risques, l’IA peut aider à rendre les humains plus productifs, a déclaré Michael Schwarz. « Nous, en tant qu’humanité, devrions être mieux lotis car nous pouvons produire plus de choses avec moins de travail ». L’IA va révolutionner la façon dont la plupart des entreprises fonctionnent, a-t-il dit, ajoutant que cela prendra du temps. « J’aime dire que l’IA ne change rien à court terme et qu’elle change tout à long terme », a déclaré Schwarz. « C’est vrai pour chaque technologie qui est venue avant ».

En attendant, l'Union européenne prépare une législation qui obligerait les outils d’intelligence artificielle comme ChatGPT à divulguer le matériel protégé par le droit d’auteur utilisé dans la construction de leurs systèmes, selon un nouveau projet de loi qui serait le premier ensemble de règles complet de l’Occident régissant le déploiement de l’IA. Cette obligation permettrait aux éditeurs et aux créateurs de contenu de disposer d’une nouvelle arme pour demander une part des bénéfices lorsque leurs œuvres sont utilisées comme matériau source pour le contenu généré par l’IA par des outils comme ChatGPT.

Le problème a été l'une des questions commerciales les plus épineuses à émerger dans le contexte d'une frénésie d'outils alimentés par l'IA déployés ou testés par des entreprises comme Microsoft Corp. et le propriétaire de Google, Alphabet Inc. Les partisans du projet de loi affirment qu’il favorisera la confiance et l’innovation dans le domaine de l’IA, tout en protégeant les intérêts des créateurs de contenu. Les critiques soutiennent qu’il pourrait entraver le développement et l’utilisation de l’IA, en imposant des charges administratives et des risques juridiques excessifs.

Source : Forum économique mondial à Genève

Et vous ?

Quelle lecture en faites-vous ?
Que pensez-vous des propos de Michael Schwarz ? L'IA, une arme à double tranchant ?
Quels sont les avantages et les inconvénients de la réglementation de l’IA par le Congrès ou par d’autres instances ?
Quels sont les risques ou les limites de laisser les entreprises comme Microsoft développer et utiliser l’IA sans contrôle externe ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de eric44000
Membre averti https://www.developpez.com
Le 04/05/2023 à 22:29
Citation Envoyé par Stéphane le calme Voir le message
L'IA causera « des dommages réels » : Microsoft alerte sur les risques de l’IA utilisée par des acteurs malveillants et appelle à une réglementation de l’IA face aux dangers potentiels de cette arme à double tranchant.
...
Les partisans du projet de loi affirment qu’il favorisera la confiance et l’innovation dans le domaine de l’IA, tout en protégeant les intérêts des créateurs de contenu. Les critiques soutiennent qu’il pourrait entraver le développement et l’utilisation de l’IA, en imposant des charges administratives et des risques juridiques excessifs.

Quelle lecture en faites-vous ?
Que pensez-vous des propos de Michael Schwarz ? L'IA, une arme à double tranchant ?
Quels sont les avantages et les inconvénients de la réglementation de l’IA par le Congrès ou par d’autres instances ?
Quels sont les risques ou les limites de laisser les entreprises comme Microsoft développer et utiliser l’IA sans contrôle externe ?
Microdoft demande une réglementation non pas par altruisme mais pour prévenir toute concurrence en leur mettant des batons dans les roues alors qu'eux ont entrainé ChatGPT sans aucune contrainte.
4  0 
Avatar de defZero
Membre extrêmement actif https://www.developpez.com
Le 06/05/2023 à 15:30
La première fois que nous avons commencé à exiger le permis de conduire, c'était après que des dizaines de personnes soient mortes dans des accidents de voiture et c'était la bonne chose à faire.
Si nous avions exigé le permis de conduire là où il y avait les deux premières voitures sur la route, cela aurait été une grave erreur. Nous aurions complètement gâché cette réglementation. Il faut qu'il y ait au moins un petit préjudice, pour que nous puissions voir quel est le vrai problème
Michael Schwarz
Je serais d'avis que l'on réserve les premiers "morts par IA" à ce Monsieur et son entourage et que l'on vienne le voir après coups pour lui reposer la question de la réglementation.
Qu'est-ce que vous en dites ? Changera d'avis ou pas ?

Je pense que toute mort évitable devrait l'être, point.
Si l'on sais par avance que le cas pourrait ce produire, il faudrait vraiment être idiot, ou avoir des intérêt financier en jeux, pour clamer le contraire (comme pour les premières automobile et la collusion entre politiques et capitaines d'industries).
... Oh;, mais je croit bien que c'est le même cas de figure .
3  0 
Avatar de onilink_
Membre émérite https://www.developpez.com
Le 06/05/2023 à 15:50
Tout à fait. Et je trouve son exemple idiot. Les premières voitures étaient par nature limités à des vitesses très basses comparé à ce que l'on a aujourd'hui, donc ça diminuait naturellement les risques d'accidents.

Tout risque qui peut être évalué en amont doit être géré au plus tôt...
Surtout qu'on parle de technologies qui vont toucher des millions de personnes, et qui ont un potentiel néfaste extrêmement grand.
Bref, c'est le genre de sujet qu'il faut laisser à des gens qui savent de quoi ils parlent. Pas à un mec qui fait des comparaisons hasardeuses.
2  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 07/07/2023 à 1:20
Citation Envoyé par Stéphane le calme Voir le message
[
Que pensez-vous du plan d’OpenAI de créer une équipe de recherche sur la superintelligence (dont l'intelligence serait « supérieure » à celle de l'homme) alors que nous n'en sommes même pas encore à l'intelligence artificielle générale (dont l'intelligence serait « équivalente » à celle de l'homme) ?
Un simple effet d'annonce. Peut-être causé par ça: ChatGPT est confronté pour la première fois à une baisse de trafic après une croissance explosive depuis son lancement
ce qui suggère que la frénésie suscitée par le chatbot commence à s'estomper
1  0 
Avatar de nikau6
Membre extrêmement actif https://www.developpez.com
Le 01/04/2024 à 8:35
Citation Envoyé par Coeur De Roses Voir le message
Je suis d'accord qu'il ne faut pas attendre de subir des dégats avant de fabriquer un bouclier en quelque sorte. Malheuresement, cet état d'esprit manque parfois à notre société en général, pas toujours.
Les dégâts les plus importants et les plus graves qui vont arriver avec l'IA sont le nombre de personnes qui vont se retrouver au chômage d'ici 10-15 ans. Et dans pleins de domaines. Les conséquences sociales vont être dramatiques. A moins que l'on change de modèle de société et que l'on passe au revenu universel. Sinon, la société qui s'annonce sera dystopique. Des bidonvilles dans lesquels vivront 90% de la population et des villes ultras modernes et sécurisées dans lesquelles vivront les autres.
L'oligarchie va pouvoir réaliser son rêve. Se débarrasser d'un peuple qui lui cause bien des soucis. Et si nous vient l’idée de nous révolter ils nous enverront des drones contre lesquels on ne pourra rien.

La question qui se pose est : "Doit-on faire quelque chose simplement parce qu'on peut le faire ?"
Quelle réflexion politique avons nous sur le sujet ? Est-il normal que des entreprises privés balancent ce genre de programmes sans se soucier des conséquences ? Devraient-elles en avoir le droit ? L'état ne devrait-il pas prendre en charge les programmes d'IA et interdire leur développement au privé ?

EDIT : On peut facilement comprendre que le militaire a un droit de véto sur toute technologie avant qu'elle ne soit rendues publique. Ce qui veut dire que si le public a accès à des IA déjà très sophistiquées, les militaires ont au moins 10 ans d'avance dans le domaine. Ce qui est également très inquiétant.
Dans un futur peut être très proche, les programmeurs qui auront participé qu développement de l'IA auront peut être autant de regrets qu'en ont eu les scientifiques qui ont participé á développer l'arme atomique. Au vu des conséquences potentiellement désastreuses pour l'humanité.
Et ceux qui voudraient me répondre que je suis pessimiste, je leurs répondrais que l'on a des siècles d'histoire derrière nous qui ne peuvent que nous rendre pessimiste sur le sujet.
1  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 05/05/2023 à 8:18
Citation Envoyé par Stéphane le calme Voir le message
L'IA causera « des dommages réels » : Microsoft alerte sur les risques de l’IA utilisée par des acteurs malveillants
J'admire cette autocritique de la parte de microsoft
Il ne dit au final pas grand chose de faux mais chaque nouvel outil a été utilisé à des fins répréhensibles, et dans le domaine de l'informatique les outils sont bien souvent un moyen de prévention/correction/rattrapage de ces propres mauvaises utilisations.
0  0 
Avatar de _toma_
Membre averti https://www.developpez.com
Le 06/05/2023 à 22:22
Deux jours plus tôt, il y avait cet article :

L'IA causera « des dommages réels » : Microsoft alerte sur les risques de son utilisation par des acteurs malveillants
https://intelligence-artificielle.de...rs-potentiels/
0  0 
Avatar de HaryRoseAndMac
Membre extrêmement actif https://www.developpez.com
Le 07/05/2023 à 14:47
En parlant de dommages significatifs, une startup est venu nous voir en début de semaine (encore une), qui a fait développer son logiciel par des développeurs, je les cites "prompt engineer".

En gros, ce sont des gens qui sont nulle à chier en dev, payé un SMIC, et qui ont utilisé ChatGPT de A à Z, pour créer l'application mobile.
Ils ont demandés à ChatGPT de le faire avec les bonnes pratiques, les meilleurs optimisations possibles, ...

Ca a tellement bien marché, qu'impossible de poster leur application sur le google store puisqu'elle ne passe pas le contrôle qualité.
On a repris leur truc, comment dire ... C'est un carnage.

Des librairies dépréciées, du code totalement inutile, aux mauvais endroits dans l'architecture, qui fait appel plusieurs fois aux mêmes choses, qui utilisent des méthodes natives qu'on utilise plus depuis un moment, ...

Bref, un bon 60% du code à refaire.
Et ça, c'est quasiment le prix de l'application.

Donc forcément, ces jeunes entrepreneurs dynamique lycornés ont pouffés, dit que finalement ils allaient demander à des indiens de le faire pour trois fois rien et on les a inviter à le faire avec plaisir.

Encore une application qui va finir à la poubelle et encore des financements jetés par la fenêtre.

Ces gens là, il n'y a rien à faire, ne comprennent pas qu'ils feraient mieux d'employer un seul Freelance sénior, qui ferait leur application de A à Z, qui à la fin va fonctionner, sera en ligne et oui, aura couté plus cher que des employés aux smic ou des indiens, mais à la fin va leur rapporter 10 fois plus, plutôt que de faire appel à des "prompt engineer" ...
0  0 
Avatar de onilink_
Membre émérite https://www.developpez.com
Le 07/05/2023 à 23:40
A chaque fois que je lis "prompt engineer" ça me fait penser à the "Infinite monkey theorem"
0  0 
Avatar de eddy72
Membre régulier https://www.developpez.com
Le 11/07/2023 à 19:32
un labo en plus ...
0  0