IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

De nombreuses « IA » sont des personnes qui restent derrière l'écran,
40 % des prétendues startups d'IA en Europe ne présentaient aucune preuve d'utilisation réelle de l'IA en 2019

Le , par Bruno

31PARTAGES

12  0 
Le terme « intelligence artificielle » a été inventé en 1956, mais l'IA est devenue plus populaire aujourd'hui grâce à l'augmentation des volumes de données, aux algorithmes avancés et aux améliorations de la puissance de calcul et du stockage. Cependant, de nombreuses entreprises qui vantent les mérites de l'intelligence artificielle (IA) utiliseraient en réalité des travailleurs peu rémunérés pour alimenter leurs logiciels.

La pratique consistant à dissimuler l'apport humain dans les systèmes d'IA reste encore un secret de polichinelle parmi ceux qui travaillent dans l'apprentissage automatique et l'IA. Une analyse des startups technologiques en Europe réalisée en 2019 par la société londonienne MMC Ventures a révélé que 40 % des prétendues startups d'IA ne présentaient aucune preuve d'utilisation réelle de l'intelligence artificielle dans leurs produits.


Dans un communiqué de presse, la société CamFind, entreprise spécialisée dans l’édition de logiciel déclare : « l'application CamFind a fait des progrès considérables en matière d'intelligence artificielle. Elle utilise la reconnaissance d'images pour identifier un objet lorsque vous pointez l'appareil photo de votre smartphone vers lui ». Quelques années plus tard, il a été révélé que l'application faisait surtout appel à des travailleurs contractuels aux Philippines pour taper rapidement ce qu'ils voyaient à travers la caméra du téléphone d'un utilisateur.

Les premières recherches sur l'IA, dans les années 1950, portaient sur des sujets tels que la résolution de problèmes et les méthodes symboliques. Dans les années 1960, le ministère américain de la Défense s'est intéressé à ce type de travaux et a commencé à former des ordinateurs pour imiter le raisonnement humain de base. Par exemple, la Defense Advanced Research Projects Agency (DARPA) a réalisé des projets de cartographie des rues dans les années 1970. Et la DARPA a produit des assistants personnels intelligents en 2003, bien avant que Siri, Alexa ou Cortana ne deviennent des noms familiers.

Rappelons que l'intelligence artificielle permet aux machines d'apprendre par l'expérience, de s'adapter à de nouvelles données et d'effectuer des tâches semblables à celles des humains. La plupart des exemples d'IA présentés aujourd’hui, des ordinateurs qui jouent aux échecs aux voitures autonomes reposent en grande partie sur l'apprentissage profond et le Natural Language Processing (NLP) entendez traitement du langage naturel. Grâce à ces technologies, les ordinateurs peuvent être entraînés à accomplir des tâches spécifiques en traitant de grandes quantités de données et en reconnaissant des modèles dans ces données.

Le NLP est une branche de l'intelligence artificielle qui aide les ordinateurs à comprendre, interpréter et manipuler le langage humain. En tant qu'humain, il est possible de parler et écrire en anglais, en espagnol ou en chinois. Mais le langage natif d'un ordinateur appelé code machine ou langage machine est largement incompréhensible pour la plupart des gens. Au niveau des couches les plus basses de l’architecture d’un ordinateur, la communication ne se fait pas avec des mots, mais par des millions de zéro et de un qui produisent des actions logiques.

Les programmeurs utilisaient des cartes perforées pour communiquer avec les premiers ordinateurs il y a 70 ans. Ce processus manuel et ardu était compris par un nombre relativement restreint de personnes. Aujourd'hui, il est possible de dire : « OK SFR, met moi sur la une », et la Box 8 de SFR se chargera de vous mettre TF1. Il adaptera ensuite son algorithme pour mieux vous satisfaire les prochaines fois. L'interaction complète aurait été rendue possible par la PNL, ainsi que par d'autres éléments d'IA tels que l'apprentissage automatique et l'apprentissage profond.

« Arrêtez de tout appeler IA », a lancé Michael I. Jordan, pionnier de l'apprentissage automatique, qui explique pourquoi les systèmes d'IA actuels ne sont pas réellement intelligents. « Les gens s'embrouillent sur la signification de l'IA dans les discussions sur les tendances technologiques, à savoir qu'il y a une sorte de pensée intelligente dans les ordinateurs qui est responsable du progrès et qui est en concurrence avec les humains. Nous n'avons pas cela, mais les gens parlent comme si c'était le cas », dit Michael I. Jordan. Il note que l'imitation de la pensée humaine n'est pas le seul objectif de l'apprentissage automatique ni même le meilleur objectif.

Au contraire, l'apprentissage automatique peut servir à accroître l'intelligence humaine, par l'analyse minutieuse de grands ensembles de données, de la même manière qu'un moteur de recherche accroît les connaissances humaines en organisant le Web. Les systèmes d'intelligence artificielle sont loin d'être assez avancés pour remplacer les humains dans de nombreuses tâches impliquant le raisonnement, la connaissance du monde réel et l'interaction sociale. Ils font preuve d'une compétence de niveau humain en matière de reconnaissance des formes de bas niveau, mais sur le plan cognitif, ils se contentent d'imiter l'intelligence humaine, sans s'engager de manière profonde et créative, explique Michael I. Jordan, classé en 2016 comme l'informaticien le plus influent par un programme d'analyse des publications de recherche.

Michael I. Jordan est par ailleurs professeur au département d'ingénierie électrique et d'informatique, ainsi qu'au département de statistique de l'université de Californie à Berkeley et membre de l’association professionnelle IEEE (Institute of Electrical and Electronics Engineers). « Les discussions de science-fiction sur l'IA et la super-intelligence sont certes amusantes, mais elles constituent une distraction. On ne s'est pas assez concentré sur le vrai problème, qui est de construire des systèmes basés sur l'apprentissage automatique à l'échelle planétaire qui fonctionnent réellement, apportent de la valeur aux humains et n'amplifient pas les inégalités », explique-t-il.

Les investissements mondiaux dans les entreprises d'IA ont augmenté régulièrement au cours de la dernière décennie et ont plus que doublé l'année dernière, selon la société d'intelligence économique PitchBook. Selon l'analyse de MpMC Ventures, le fait de qualifier sa startup de « société d'IA » peut entraîner une prime de financement allant jusqu'à 50 % par rapport aux autres sociétés de logiciels. Pourtant, ignorer les travailleurs qui alimentent ces systèmes conduit à des pratiques de travail déloyales et fausse la compréhension du public sur la façon dont l'apprentissage automatique fonctionne réellement.

Dans la Silicon Valley, de nombreuses startups auraient réussi à suivre la philosophie fake it 'til you make it qui pourrait se traduire par « faites semblant jusqu'à ce que vous y arriviez ». Pour les entreprises d'IA, l'embauche de personnes pour soutenir les algorithmes peut devenir un palliatif qui, à l'occasion, devient permanent. Des humains ont été découverts en train de transcrire secrètement des reçus, de fixer des rendez-vous dans le calendrier ou d'effectuer des services de comptabilité pour le compte de « systèmes d'IA » qui s'attribuaient tout le mérite. En 2019, une plainte déposée par un dénonciateur contre une entreprise britannique affirmait que les clients payaient pour un logiciel d'IA qui analysait les réseaux sociaux alors que des membres du personnel faisaient ce travail.

Pourquoi l'intelligence artificielle ?

  • l'IA automatise l'apprentissage répétitif et la découverte à travers les données. Au lieu d'automatiser les tâches manuelles, l'IA exécute des tâches informatisées fréquentes et à fort volume. Et elle le fait de manière fiable et sans fatigue. Bien sûr, les humains restent indispensables pour configurer le système et poser les bonnes questions ;
  • l'IA ajoute de l'intelligence aux produits existants. De nombreux produits que vous utilisez déjà seront améliorés grâce aux capacités de l'IA, un peu comme Siri a été ajouté en tant que fonctionnalité à une nouvelle génération de produits Apple. L'automatisation, les plateformes conversationnelles, les bots et les machines intelligentes peuvent être combinés à de grandes quantités de données pour améliorer de nombreuses technologies. Les mises à niveau à la maison et sur le lieu de travail, vont de l'intelligence de sécurité et des caméras intelligentes à l'analyse des investissements ;
  • l'IA s'adapte grâce à des algorithmes d'apprentissage progressif pour laisser les données faire la programmation. L'IA trouve des structures et des régularités dans les données afin que les algorithmes puissent acquérir des compétences. Tout comme un algorithme peut apprendre à jouer aux échecs, il peut apprendre à lui-même quel produit recommander en ligne. Et les modèles s'adaptent lorsqu'ils reçoivent de nouvelles données ;
  • l'IA analyse des données plus nombreuses et plus profondes à l'aide de réseaux neuronaux comportant de nombreuses couches cachées. Il était autrefois impossible de construire un système de détection des fraudes avec cinq couches cachées. Tout cela a changé avec l'incroyable puissance des ordinateurs et le big data. Il faut beaucoup de données pour former des modèles d'apprentissage profond, car ils apprennent directement à partir des données ;
  • l'IA atteint une précision incroyable grâce aux réseaux neuronaux profonds. Par exemple, vos interactions avec Alexa et Google sont toutes basées sur l'apprentissage profond. Et ces produits ne cessent de gagner en précision à mesure que vous les utilisez. Dans le domaine médical, les techniques d'IA issues de l'apprentissage profond et de la reconnaissance d'objets peuvent désormais être utilisées pour localiser le cancer sur des images médicales avec une précision accrue ;
  • l'IA tire le meilleur parti des données. Lorsque les algorithmes sont autoapprenants, les données elles-mêmes sont un atout. Les réponses se trouvent dans les données. Il suffit d'appliquer l'IA pour les trouver. Le rôle des données étant plus important que jamais, il peut créer un avantage concurrentiel. Si vous disposez des meilleures données dans un secteur concurrentiel, même si tout le monde applique des techniques similaires, les meilleures données l'emporteront.

Apport humain dans les systèmes d'IA

La construction de systèmes d'IA nécessite de nombreuses heures de formation d'algorithmes par des humains, et certaines entreprises sont tombées dans la zone grise entre la formation et l'exploitation. Une explication courante est que les travailleurs humains assurent la "validation" ou la "surveillance" des algorithmes, comme un contrôle de qualité. Mais dans certains cas, ces travailleurs effectuent des tâches à forte intensité cognitive parce que les algorithmes qu'ils supervisent ne fonctionnent pas assez bien tout seuls.

Cela peut renforcer les attentes irréalistes quant aux capacités de l'IA. « Cela fait partie de ce rêve chimérique de superintelligence », déclare Ian Hogarth, investisseur providentiel, professeur invité à l'University College de Londres et coauteur d'un rapport annuel sur l'état de l'IA. Pour les travailleurs cachés, les conditions de travail peuvent également être « anti-humaines », dit-il. Cela peut conduire à des inégalités et à de mauvaises performances de l'IA.

Par exemple, Cathy O'Neil a noté que les algorithmes d'apprentissage automatique de Facebook ne fonctionnent pas assez bien pour arrêter les contenus nuisibles. L'entreprise pourrait doubler ses 15 000 modérateurs de contenu, comme le suggère une récente étude universitaire. Mais Facebook pourrait également faire sortir de l'ombre ses modérateurs actuels. Les travailleurs contractuels doivent signer des accords de confidentialité stricts et ne sont pas autorisés à parler de leur travail avec leurs amis et leur famille, selon Cori Crider, fondatrice du groupe de défense des technologies Foxglove Legal, qui a aidé plusieurs anciens modérateurs à intenter une action en justice contre Facebook suite à des allégations de dommages psychologiques. Facebook a déclaré que les modérateurs de contenu pouvaient faire des pauses quand ils en avaient besoin et qu'ils n'étaient pas contraints de prendre des décisions hâtives.

Un problème similaire affecte la plateforme MTurk d'Amazon qui publie des petites tâches pour les indépendants. Dans leur livre « Ghost Workers », les chercheurs de Microsoft Mary Gray et Siddharth Suri affirment que ces travailleurs indépendants font partie d'une main-d'œuvre invisible qui étiquette, édite et trie une grande partie de ce que nous voyons sur Internet. L'IA ne fonctionne pas sans ces « humains dans la boucle », disent-ils. Et pourtant ces personnes sont largement sous-évaluées et tout est au compte de l’IA.

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi :

« Arrêtez de tout appeler IA », dit Michael I. Jordan, un pionnier de l'apprentissage automatique, qui explique pourquoi les systèmes d'IA actuels ne sont pas réellement intelligents

Facebook étudie des systèmes d'IA qui voient, entendent et se souviennent de tout ce que vous faites, ces outils pourraient un jour apparaître dans les lunettes de réalité virtuelle de Facebook

Project Turing : Microsoft et Nvidia créent un modèle de langage qui a 105 couches et 530 milliards de paramètres et nécessite 280 GPU A100, mais le système est encore biaisé

L'homme ou les solutions basées sur l'IA pour traiter les problèmes des entreprises modernes ? une enquête menée par SkyNova, sur la base d'un projet de prédiction du langage GPT-3

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de JPLAROCHE
Membre éclairé https://www.developpez.com
Le 21/10/2021 à 10:25
Pour confirmer, j'étais en Israël 1990, mon oncle me présentait son poulailler géré par l'informatique qui elle-même était relié à des contacteurs pour savoir l'hygrométrie, l'approvisionnement d'eau de nourriture etc....

On ne parlait pas d'IA aujourd'hui Microsoft fait la même chose et vend en publicité en disant que c'est de l'IA, De même dans les années 90 les algorithmes basées sur la relation objet introduisant la théorie des ensembles couplé à une base de donnée on n’appelait pas cela de l'IA .... ex. un programme qui affichait des requêtes et faisait de l'analyse sur l'ensemble des données de l'entreprise émulait l'équivalant de 2500 programmes. On n’appelait pas cela de l'IA
4  0