L’intelligence artificielle (IA) générative est une technologie qui permet de créer du texte, des images, des sons ou des vidéos à partir de données existantes ou de zéro. Un exemple d’IA générative est ChatGPT, un outil développé par OpenAI qui peut produire des réponses cohérentes et naturelles à des requêtes variées. Chatgpt utilise un modèle d’apprentissage profond appelé GPT-4, qui contient environ 500 milliards de paramètres et qui a été entraîné sur une grande quantité de textes provenant d’Internet.
Si cette technologie offre des possibilités fascinantes pour la créativité, l’éducation, le divertissement ou la communication, elle présente aussi des risques importants pour la société et l’humanité. Voici quelques-uns de ces dangers :
- La désinformation et la manipulation : l’IA générative peut être utilisée pour créer du contenu faux ou trompeur, comme des fake news, des faux témoignages, des faux avis ou des faux profils. Ces contenus peuvent influencer l’opinion publique, la démocratie, les élections ou les comportements des consommateurs. Distinguer le vrai du faux et vérifier les sources d’information devient alors de plus en plus difficile.
- La perte d’authenticité et de confiance : l’IA générative peut être utilisée pour imiter la voix, le visage ou le style d’une personne réelle ou fictive, sans son consentement ou sa connaissance. Ces imitations peuvent porter atteinte à la vie privée, à la réputation ou à l’identité des personnes concernées. Elles peuvent aussi créer de la confusion, de la méfiance ou de la déception chez les destinataires du contenu. Savoir qui parle et dans quel but devient complexe.
- L’éthique et la responsabilité : l’IA générative peut être utilisée pour créer du contenu offensant, illégal ou immoral, comme des discours de haine, des incitations à la violence, des contenus pornographiques ou pédophiles. Ces contenus peuvent nuire à la dignité, à la sécurité ou au bien-être des personnes visées ou exposées. Contrôler, réguler ou sanctionner ces usages malveillants n'est plus aussi simple qu'auparavant.
- L’impact sur les relations humaines : l’IA générative peut être utilisée pour remplacer ou simuler des interactions humaines, comme des conversations, des émotions, des sentiments ou des conseils. Ces interactions peuvent avoir des effets positifs ou négatifs sur la santé mentale, le développement personnel ou le lien social des personnes impliquées. Il devient de plus en plus difficile de distinguer l’humain du non-humain et de préserver l’authenticité et la sincérité des relations.
L'une des illustrations que nous pouvons donner est ce cliché, qui est devenu viral sur Twitter mettant sur scène un vieillard au visage ensanglanté, manifestement violenté par les forces de l'ordre. Le contexte était la mobilisation contre la réforme des retraites en France et l'homme âgé était présenté comme un manifestant vraisemblablement interpellé par des policiers.
Des journalistes et experts de la reconnaissance des fake sur Internet se sont penchés sur le sujet. Selon Guillaume Brossard, le créateur du site HoaxBuster, et l’Agence France Presse, il n’y a que peu de doutes : l’image en question présente certains défauts, qui sont le signe d’une création par un logiciel, et probablement Midjourney. Mais la possibilité du réel, et surtout la difficulté à trancher facilement la question, a de quoi inquiéter.
[TWITTER]<blockquote class="twitter-tweet"><p lang="fr" dir="ltr">Nous avons retrouvé une première occurrence de l'intégralité de cette image dans une publication Facebook du 19 mars, dont plusieurs éléments laissent penser qu’il s’agit d’une image générée par intelligence artificielle <a href="https://twitter.com/hashtag/AFP?src=hash&ref_src=twsrc%5Etfw">#AFP</a> 2/... <a href="https://t.co/0twzrWLmXi">pic.twitter.com/0twzrWLmXi</a></p>— AFP Factuel 🔎 (@AfpFactuel) <a href="https://twitter.com/AfpFactuel/status/1641429963785003010?ref_src=twsrc%5Etfw">March 30, 2023</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]
Des personnes malveillantes pourraient faire beaucoup de dégât avec l'IA, prévient Michael Schwarz
Face à ce qui devient progressivement la nouvelle réalité numérique, l'économiste en chef de Microsoft, Michael Schwarz, a affirmé que l'intelligence artificielle serait dangereuse entre les mains de personnes sans scrupules.
« Je suis convaincu que l'IA sera utilisée par des personnes malveillantes, et oui, cela causera de réels dommages », a déclaré Schwarz lors du panel du Forum économique mondial à Genève mercredi. Il a ajouté que dans les mains des spammeurs, cela peut faire beaucoup de mal aux élections et à d'autres questions d'intérêt public. L'IA doit être réglementée, a-t-il averti, mais seulement après que la technologie a causé un « véritable préjudice ».
Les outils d’intelligence artificielle font l’objet d’un examen accru depuis que leur utilisation a explosé ces derniers mois suite au lancement de ChatGPT. Les décideurs politiques tentent de faire pression sur les entreprises pour qu’elles mettent en place des garde-fous autour de la technologie émergente.
« Une fois que nous verrons un réel préjudice, nous devrons nous poser la question simple : ‘Pouvons-nous réglementer cela d’une manière où les bonnes choses qui seront empêchées par cette réglementation sont moins importantes ?’ », a déclaré Schwarz. « Les principes devraient être que les bénéfices de la réglementation pour notre société devraient être supérieurs au coût pour notre société ».
Aujourd'hui, la vice-présidente américaine Kamala Harris va rencontrer les PDG de Microsoft, Alphabet Inc. et OpenAI Inc. pour discuter des moyens de réduire le risque de dommages causés par les technologies d’IA. Microsoft travaille à ériger des garde-fous pour aider à atténuer le danger potentiel des outils d’IA, a déclaré Schwarz. La société utilise déjà le ChatGPT d’OpenAI dans son produit de recherche Bing, et Google a lancé son rival Bard chatbot en mars.
Schwarz a mis en garde contre le fait que les décideurs politiques devraient faire attention à ne pas réglementer directement les ensembles de données d’entraînement de l’IA. « Ce serait assez désastreux », a-t-il dit. « Si le Congrès devait prendre ces décisions sur les ensembles de données d’entraînement, bonne chance à nous ».
Conclusion
Malgré les risques, l’IA peut aider à rendre les humains plus productifs, a déclaré Michael Schwarz. « Nous, en tant qu’humanité, devrions être mieux lotis car nous pouvons produire plus de choses avec moins de travail ». L’IA va révolutionner la façon dont la plupart des entreprises fonctionnent, a-t-il dit, ajoutant que cela prendra du temps. « J’aime dire que l’IA ne change rien à court terme et qu’elle change tout à long terme », a déclaré Schwarz. « C’est vrai pour chaque technologie qui est venue avant ».
En attendant, l'Union européenne prépare une législation qui obligerait les outils d’intelligence artificielle comme ChatGPT à divulguer le matériel protégé par le droit d’auteur utilisé dans la construction de leurs systèmes, selon un nouveau projet de loi qui serait le premier ensemble de règles complet de l’Occident régissant le déploiement de l’IA. Cette obligation permettrait aux éditeurs et aux créateurs de contenu de disposer d’une nouvelle arme pour demander une part des bénéfices lorsque leurs œuvres sont utilisées comme matériau source pour le contenu généré par l’IA par des outils comme ChatGPT.
Le problème a été l'une des questions commerciales les plus épineuses à émerger dans le contexte d'une frénésie d'outils alimentés par l'IA déployés ou testés par des entreprises comme Microsoft Corp. et le propriétaire de Google, Alphabet Inc. Les partisans du projet de loi affirment qu’il favorisera la confiance et l’innovation dans le domaine de l’IA, tout en protégeant les intérêts des créateurs de contenu. Les critiques soutiennent qu’il pourrait entraver le développement et l’utilisation de l’IA, en imposant des charges administratives et des risques juridiques excessifs.
Source : Forum économique mondial à Genève
Et vous ?
Quelle lecture en faites-vous ?
Que pensez-vous des propos de Michael Schwarz ? L'IA, une arme à double tranchant ?
Quels sont les avantages et les inconvénients de la réglementation de l’IA par le Congrès ou par d’autres instances ?
Quels sont les risques ou les limites de laisser les entreprises comme Microsoft développer et utiliser l’IA sans contrôle externe ?