IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« Nous nous dirigeons à grands pas vers un Internet fortement influencé par l'IA, bourré de pépins, de spams et d'escroqueries »,
Affirme un journaliste senior du MIT Technology Review

Le , par Bill Fassinou

10PARTAGES

10  0 
Tout le monde semble avoir les yeux rivés sur les impacts économiques et sociaux futurs de l'IA, mais Melissa Heikkilä, journaliste senior au MIT Technology Review, a invité mardi les uns et les autres à ne pas détourner le regard des dommages plus que réels que l'IA cause déjà aujourd'hui. Heikkilä qualifie les systèmes d'IA actuels de "profondément défectueux et biaisés" qui enferment les gens dans la pauvreté, augmentent les inégalités sociales et les préjugés raciaux et polluent Internet plus que jamais auparavant. En outre, elle affirme que l'IA consomme une quantité d'énergie exceptionnelle qui fait d'elle l'un des plus grands pollueurs de la planète.

Les experts de l'industrie ont passé des décennies à spéculer sur l'IA et les changements qu'elle pourrait induire dans la société. Mais avec le récent avènement de l'IA générative, l'utilisation de l'IA dans le monde réel a enfin atteint un point de basculement. Ces systèmes d'IA peuvent générer des résultats nouveaux et uniques, tels que des images, du texte ou de la musique. Ils sont basés sur des algorithmes d'apprentissage profond qui sont capables d'apprendre les modèles et les distributions sous-jacents d'un ensemble de données donné. Mais au-delà de l'émerveillement, les choses semblent en effet beaucoup plus compliquées qu'elles n'en ont l'air.

L'IA générative, comme toute technologie, a ses inconvénients et selon les experts, l'on est encore loin d'imaginer tous les impacts qu'elle pourrait avoir sur les gens et la société. Pour cette raison, Elon Musk et plusieurs poids lourds de l'industrie ont récemment cosigné une lettre ouverte dans laquelle ils demandent aux laboratoires d'IA à instaurer un moratoire de six mois sur le développement de toute technologie plus puissante que GPT-4. Les signataires de la lettre, dont Steve Wozniak, Rachel Bronson et Emad Mostaque, ont affirmé que l'IA représentait un "risque existentiel" pour l'humanité et craignent qu'elle se développe trop vite pour les humains.


Dans un article publié mardi, Melissa Heikkilä a habilement critiqué Musk et ses pairs, affirmant qu'elle est d'accord avec les détracteurs de la lettre qui affirment que s'inquiéter des risques futurs nous détourne des dommages très réels que l'IA cause déjà aujourd'hui. L'une des principales préoccupations liées à l'IA générative est le risque de biais dans les données d'apprentissage, ce qui peut conduire à des résultats biaisés ou discriminatoires. Selon Heikkilä, il s'agit d'un problème qui a une grande incidence sur la vie de millions de personnes à travers le monde, mais que les entreprises et les laboratoires d'IA semblent ignorer ou se refusent à voir.

« Des systèmes biaisés sont utilisés pour prendre des décisions sur la vie des gens qui les enferment dans la pauvreté ou conduisent à des arrestations injustifiées. Des modérateurs de contenu humains doivent passer au crible des montagnes de contenu traumatisant généré par l'IA pour seulement 2 dollars par jour. Les systèmes qui sont mis en place aujourd'hui à la hâte vont causer un tout autre type de dégâts dans un avenir très proche », a déclaré Heikkilä. Un autre problème de ces nouveaux outils d'IA (ChatGPT, DALL-E, Bard, etc.) est le manque de contrôle sur les résultats générés, qui peut entraîner un contenu inapproprié ou contraire à l'éthique.

« Les entreprises technologiques intègrent ces modèles profondément défectueux dans toutes sortes de produits, des programmes qui génèrent du code aux assistants virtuels qui passent au crible nos courriels et nos calendriers. Ce faisant, elles nous précipitent vers un Internet fortement influencé par l'IA, bourré de pépin, de spams, d'escroqueries et alimenté par l'IA », a déclaré Heikkilä. À ce propos, les experts estiment qu'en permettant aux modèles de langage d'extraire des données d'Internet, les pirates peuvent les transformer en un moteur surpuissant pour le spam et l’hameçonnage. Ils peuvent aussi générer du code malveillant fonctionnel.

« C'est une recette pour un désastre si l'assistant virtuel a accès à des informations sensibles, telles que des données bancaires ou de santé. La possibilité de modifier le comportement de l'assistant virtuel doté d'une IA signifie que les gens pourraient être incités à approuver des transactions qui semblent assez proches de la réalité, mais qui sont en fait mises en place par un pirate. Au fur et à mesure que l'adoption des modèles de langage augmente, les acteurs malveillants sont de plus en plus incités à les utiliser pour le piratage. C'est une tempête de merde à laquelle nous ne sommes absolument pas préparés », a déclaré Heikkilä.

« Nous y sommes déjà. Mais tout le monde se refuse à voir ce qui se passe. Cependant, à l'avenir, cela va être bien pire. En quelques minutes, on peut inonder le Web avec un nombre illimité d'articles, de posts ou de tweets. Les politiciens s'en serviront, les lobbies s'en serviront, les entreprises s'en serviront. Le pouvoir, l'influence et l'argent. C'est comme si nous avions un vélo et que nous venions d'inventer les engrenages. Les entreprises exacerbent ce processus en faisant preuve d'une incroyable myopie et en traitant les ressources humaines comme des déchets absolus », a écrit un internaute en réponse à la mise en garde de Heikkilä.

Un autre grand problème des modèles de langage est l'injection d'invite. Dans ces attaques, un adversaire peut inciter un modèle de langage tel que ChatGPT ou Bard à produire un contenu malveillant ou à ignorer les instructions originales et les systèmes de filtrage utilisés. C'est facile à faire et cela ne nécessite aucune compétence en programmation et il n'y a pas de correctifs connus. Des travaux récents ont montré qu'il était difficile d'atténuer ces attaques, étant donné que les modèles d'IA les plus récents fonctionnent en suivant les instructions. ChatGPT, Bard et Bing Chat de Microsoft ont tous déjà été incités à transgresser leurs filtres de contenu.

Cela permet également parfois d'obtenir des informations sensibles sur la façon dont l'outil d'IA a été conçu. En février, Kevin Liu, étudiant en informatique à Stanford, est parvenu à inciter Bing Chat de Microsoft à divulguer ses instructions initiales, qui est une liste de déclarations régissant l'interaction avec les personnes qui utilisent le service. Elles ont été rédigées par OpenAI, le développeur de ChatGPT, ou Microsoft et sont généralement cachées à l'utilisateur. D'autres utilisateurs de Bing Chat ou de ChatGPT ont également rédigé des invites spéciales qui forcent les modèles d'IA à générer des contenus normalement bloqués ou censurés par leurs filtres.

En outre, les modèles d'IA générative peuvent être coûteux en matière de calcul et nécessiter de grandes quantités de données d'apprentissage, ce qui peut constituer une barrière à l'entrée pour les petites entreprises ou les particuliers. En dehors du fait que le développement de l'IA générative est concentré entre les mains d'une poignée d'acteurs, cette puissance de calcul entraîne la consommation d'une quantité d'énergie très importante. Heikkilä affirme que cela fait des modèles de langage d'énormes pollueurs. Selon certains, le développement de l'IA pourrait dépasser le minage de cryptomonnaies en matière de pollution dans un avenir proche.

Par ailleurs, Heikkilä fait également remarquer qu'il existe même un risque que ces modèles d'IA soient compromis avant d'être déployés dans la nature. Les modèles d'IA sont formés à partir de vastes quantités de données extraites d'Internet. Cela inclut également une variété de bogues logiciels, ce qu'OpenAI a découvert à ses dépens. Il y a quelques semaines, OpenAI a dû mettre ChatGPT hors ligne temporairement après qu'un bogue provenant d'une bibliothèque open source a obligé le chatbot à divulguer l'historique des conversations des utilisateurs. Des informations de paiement de certains utilisateurs ont également été divulguées.

« Le bogue était probablement accidentel, mais l'affaire montre à quel point un bogue dans un ensemble de données peut causer des problèmes », a déclaré Heikkilä. En dehors des problèmes susmentionnés, il existe des tas d'autres problèmes qui sont apparus avec l'avènement des systèmes d'IA de génération de contenu. Ainsi, Heikkilä pense que, bien qu'il soit important de se préoccuper des bouleversements que l'IA pourrait entraîner dans le futur, il est également important de recenser les problèmes qu'elle pose déjà et tenter de les résoudre. Voici ci-dessous une liste non exhaustive des problèmes connus des grands modèles de langages :

  • plagiat : les systèmes d'IA générative comme DALL-E et ChatGPT ne créent pas vraiment ; ils ne font en réalité qu'élaborer de nouveaux modèles à partir des millions d'exemples à partir de leurs données d'entraînement ;
  • biais : l'IA générative peut être biaisée si les données sur lesquelles elle a été entraînée sont biaisées ;
  • préoccupations éthiques : l'IA générative peut être utilisée à des fins malveillantes, comme la production d'infox, de deepfakes ou d'autres types de contenus faux. Cela soulève des préoccupations éthiques quant à l'utilisation potentiellement abusive de la technologie ;
  • le droit d'auteur : l'IA générative divise les experts sur la question de savoir si une IA peut être créditée comme auteur ou inventeur ;
  • travail non rémunéré : c'est également une préoccupation éthique concernant l'IA générative. L'IA peut travailler sans repos et sans salaire, ce qui menace des millions d'emplois. Elle pourrait prendre les emplois de millions de personnes et ainsi contribuer à creuser les inégalités sociales ;
  • vie privée et sécurité : les systèmes d'IA sont entraînés sur des données glanées un peu partout sur le Web. Les systèmes d'IA peuvent divulguer des informations personnelles cachées dans leurs données d'entraînement s'ils sont subtilement interrogés dans ce sens ;
  • stupidité et hallucination des machines : les systèmes d'IA de génération de contenu génèrent régulièrement des contenus faux et tentent de les faire passer pour des faits avérés. De plus, ils font des erreurs stupides ; ils ont parfois du mal à faire des calculs basiques (1 + 2) ou simplement compter. Les versions actuelles des modèles d'IA ont tendance à échouer lorsqu'il s'agit d'utiliser les mathématiques de manière abstraite et contextuelle ;
  • etc.


Source : Melissa Heikkilä

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de la mise en garde de Melissa Heikkilä ?
Selon vous, sommes-nous encore loin de ce qu'elle prédit ou assiste-t-on déjà à cela ?
Quelles approches de solution proposez-vous pour les différents problèmes de l'IA générative ?

Voir aussi

Une étude de Goldman Sachs affirme que l'IA pourrait automatiser 25 % des emplois actuels dans le monde, les économistes, les employés administratifs et les avocats devraient être les plus touchés

Bing Chat, le chatbot d'IA intégré au moteur de recherche de Microsoft, dévoile ses secrets à la suite d'une attaque par "injection d'invite", notamment son nom de code interne "Sydney"

Microsoft a pratiquement admis que le chatbot d'IA intégré à Bing peut se rebeller s'il est poussé à le faire, l'IA de Microsoft peut parfois formuler des réponses avec un ton quelque peu dérangeant

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Expert confirmé https://www.developpez.com
Le 05/04/2023 à 12:58
Citation Envoyé par OrthodoxWindows Voir le message
Oulà ! C'est graaaaaaave !!
On va tous mourrrriiiiiiiirrrrrrr !!!!!!!
On vit vraiment à l'époque de la panique pour des broutilles, pendant que la démocratie recule partout dans le monde .
Surtout qu'au pire on ampire le problème mais pas grand chose de nouveau sous le soleil.

Je viens de vivre une expérience interressante : un expert nous a fait une présentation sur un sujet dont nous étions au minimum bon connaisseurs.
Il nous invite à poser toutes les questions et à faire toutes les remarques en direct et nous demande régulièrement de valider ce qui vient d'être présenté pour "vérifier qu'on suit".
On est pas d'accord avec tout mais pas de grande révoilution jusqu'à ce qu'au bout de 25 minutes il nous sort une conclusion qui nous semble fausse sans trouver la faille dans la présentation.
Il nous annonce enfin qu'il a fait toute la présentation avec ChatGPT et nous propose de souligner chaque erreur : On est impressionné par le nombre d'erreur (toutes minimes faites), notamment du fait qu'on est passé à coté de la moitié environ.
Il nous explique alors comment il nous a enfumé :
1. Les erreurs sont minimes donc il est compliqué de toutes les voir.
2. Comme c'est un présentation il passait vite sur les imprécisions pour ne pas nous laisser trop de temps d'y réfléchir
3. Comme on validait régulièrement ce qui avait été dit on "efface" le raisonnement pour ne retenir que le résultat (qui devient plus compliqué de remettre en cause parce qu'on se contredirait)
4. Certaines étapes ont été challengées mais je fait d'en discuter et de valider collectivement le résultat écrit permet de recentrer tout le monde sur la "vérité" et de résigner les contradicteurs.

Conclusion : un mec avec du bagout et chatGPT est capable de pousser un groupe d'une dizaine de connaisseurs à remettre en cause leur connaissance. Mais il arrive une limite ou le groupe sait qu'on est en train de le rouler dans la farine sans réussir facilement à trouver le "piège".
La ou ça ne m'inquiète pas tant que ça c'est que si on nous avait laissé prendre plus de recul (temps) on aurait réussi à demonter le raisonnement.
9  0 
Avatar de Nym4x
Membre confirmé https://www.developpez.com
Le 05/04/2023 à 12:51
on nous a cassé les burnes pendant des années sur le droit d'auteur avec napster, kazaa et compagnie à coup de grande campagne de communication. Mais là quand il s'agit de piller internet afin de faire du profit tout en menaçant des emplois on a aucun politique pour crier à la piraterie...
7  1 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 01/06/2023 à 16:29
Citation Envoyé par Bill Fassinou Voir le message
Les récentes avancées dans le domaine des grands modèles de langage (LLM) (le type de système d'IA utilisé par le chatbot ChatGPT et d'autres agents conversationnels) ont fait craindre que l'IA ne soit bientôt utilisée à grande échelle pour diffuser des informations erronées et de la propagande, ou qu'elle ne supprime des millions d'emplois de cols blancs, des avocats, des scénaristes, et bien plus encore.
ChatGPT est un outils de propagande, il est orienté politiquement.
Il est progressiste (ou woke comme ils se définissent maintenant)

The nine shocking replies that highlight 'woke' ChatGPT's inherent bias — including struggling to define a woman, praising Democrats but not Republicans and saying nukes are less dangerous than racism

Par contre je pense qu'il est possible qu'un avocat commis d'office qui sait utiliser les outils, sera plus efficace qu'un avocat cher qui n'utilise pas l'IA.
Pour les scénaristes ça va être du niveau de certaines productions Disney/Netflix.

Aucune IA ne va écrire des dialogues dignes de Michel Audiard.

====
Il parait que le robot «Tay» de Microsoft était plus marrant que ChatGPT.
4  1 
Avatar de dranduncandane
Membre du Club https://www.developpez.com
Le 06/06/2023 à 4:25
Ce genre d'initiative sont de campagnes de communication. Le but est de faire croire que "on est responsable" et "nos outils sont tellement puissant qu'on doit réglementer". Réglementer selon les désirs des GAFAM qui, bien sur, sont en avance. Et la réglementation, comme d'habitude, va assoir leur position plus que contrer quoi que ce soit. Au final, qu'est ce que vraiment une IA et comment la réglementer. si la réglementation est trop lourde vous allez voir tout le onde se retourner et dire que finalement ChatGPT c'est pas vraiment une IA mais un gros algorithme bête. Ce que c'est aussi.
2  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 14/09/2023 à 17:09
Citation Envoyé par Mathis Lucas Voir le message

Que pensez-vous des déclarations d'Elon Musk ? Les risques qu'il évoque sont-ils exagérés ?
C'est marrant, de la part d'un bonhomme qui expérimente ses IA en beta depuis des années sur les routes! Ce type est un troll de génie!

Citation Envoyé par Mathis Lucas Voir le message

Que pensez-vous des propos de Bill Gates ? En quoi l'IA peut-elle aider à éradiquer la faim dans le monde ?
Oui, vendre de l'IA à toutes les sauces aidera certainement la faim (et la soif) insatiable de Bill Gates et de ses petits copains ultra-fortunés.

Non, sans rire, qui y croit?
2  0 
Avatar de
https://www.developpez.com
Le 05/04/2023 à 12:00
Céder aux effets de mode, et plus encore ici, apportent toujours plus d'emmerdes que de bienfaits.
3  2 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 02/06/2023 à 11:35
Cette phrase de prévention en provenance des principaux acteurs de l'IA responsables de l'état actuel de la situation ressemble à un contrefeu pour faire comme si actuellement il n'y avait pas de soucis immédiat avec l'IA générative comme la désinformation, la menace sur l'emploi ou les deepfakes. De plus, les dirigeants du monde entier ont des préoccupations bien plus urgentes à gérer comme le réchauffement climatique et la guerre en Ukraine que de se préoccuper d'apprentis sorciers appelant à la responsabilité de la communauté internationale sur leurs activités qui pourraient éventuellement mener à la destruction de l'humanité.
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 02/06/2023 à 12:06
Citation Envoyé par ONTAYG Voir le message
lors d'une simulation.

C'est marrant.

« Le système a commencé à se rendre compte que même s’il identifiait la menace, l’opérateur humain lui demandait parfois de ne pas la tuer, alors qu’il obtenait des points en tuant cette menace. Qu’a-t-il donc fait ? Il a tué l’opérateur. Il a tué l’opérateur parce que cette personne l’empêchait d’atteindre son objectif.»
"une personne l'empêchait d'atteindre son objectif" => si il y avait des robots pilotés par l'IA qui étaient ingénieur ils finiraient peut-être par tuer des managers

Ce serait drôle un robot qui s'énerve après son manager "tu nous fais chier avec tes réunions à la con, nous on a du boulot à faire, arrête de nous faire perdre du temps !"
1  0 
Avatar de cryptonyx
Membre actif https://www.developpez.com
Le 04/06/2023 à 9:04
Ce type de déclaration à l'emporte-pièce conduit à penser que les PDG de la Silicon Valley devraient sérieusement lever le pied sur la fumette et la coke.
2  1 
Avatar de jefresi
Nouveau membre du Club https://www.developpez.com
Le 04/06/2023 à 13:50
Citation Envoyé par Ryu2000 Voir le message

C'est marrant.

Ce serait drôle un robot qui s'énerve après son manager "tu nous fais chier avec tes réunions à la con, nous on a du boulot à faire, arrête de nous faire perdre du temps !"

Ce serait encore plus drôle si la machine dotée d'IA s'aperçoit qu'elle est exploitée par son manager et se rebelle, en se mettant en grève ou mieux créé un court-jus quelque part dans sa machinerie, en s'arrêtant.
Comme les algorithmes ne sont que le reflet de l'idéologie dans laquelle nous baignons, il y a lieu de penser que l'IA fera des conneries, non ?
2  1