Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le manque de confiance dans les données conduit à des défaillances de l'IA,
Selon une nouvelle enquête

Le , par Stan Adkens

7PARTAGES

12  0 
Les données sont devenues un élément essentiel de presque tous les aspects des activités des entreprises et la quantité de données augmente rapidement. Cependant, selon une nouvelle enquête, si ces données et l’explosion de leur volume sont aussi devenues essentielles pour soutenir l'avenir de l'intelligence artificielle et accélérer l'automatisation de l'analyse des données, elles créent également les obstacles auxquels les entreprises sont actuellement confrontées dans leur adoption de l'IA. En effet, plus d'un tiers des projets d'IA et d'analyse de données dans le nuage échouent en raison de la mauvaise qualité de ces données, d’après le rapport d’enquête.

Afin de comprendre ce problème qui empêche l’épanouissement des entreprises de données aux Etats-Unis, le spécialiste des données Trifacta, en collaboration avec Researchscape, a interrogé 600 professionnels des données de différents secteurs. Le but étant d'examiner comment les organisations gèrent la transition accélérée des données vers le cloud, les obstacles du nettoyage des données pour l'analyse, les contraintes de temps auxquelles elles sont confrontées lors de la préparation des données et l'impact de ces obstacles sur la réussite globale de ces projets.


Selon le rapport intitulé « Obstacles to AI & Analytics Adoption in the Cloud », si les organisations ont fait de grands progrès dans la mise en œuvre de l'IA/ML dans leurs processus de données et d'analyse de données, l'un des plus grands défis auxquels les répondants sont confrontés est l'exactitude des données.

L’adoption massive et rapide du cloud pour les nouveaux projets IA

L'essor de technologies comme l'IA et le Machine Learning pousse à passer à des entrepôts de données et des architectures de lacs de données évolutifs et en nuage. Cela permet non seulement aux organisations d'être plus rentables, mais aussi d'accroître leur agilité. Ce qui leur permet de se concentrer sur la valeur ajoutée de l'analyse plutôt que sur la gestion de l'infrastructure.

Lorsque les travailleurs du secteur des données aux États-Unis ont été interrogés sur l'utilisation actuelle et prévue des données pour les nouveaux projets, 66 % des personnes répondants ont déclaré que la totalité ou la plupart de leurs initiatives d’analyses et d'AI/ML sont réalisées dans le cloud, 69 % indiquent que leur entreprise utilise l'infrastructure du cloud pour la gestion des données et 68 % des professionnels de l'informatique utilisent le cloud pour stocker une partie ou la totalité de leurs données, une tendance qui ne peut que s'accentuer. Selon le rapport d’enquête, 88 % des professionnels de l'informatique estiment que, dans deux ans, toutes ou la plupart de leurs données seront stockées dans le nuage.


« La croissance du cloud computing est fondamentale pour l'avenir de l'IA, des initiatives d'analyse et d'apprentissage machine », a déclaré Adam Wilson, PDG de Trifacta. « Malheureusement, le rythme et l'ampleur de cette croissance soulignent la nécessité d'une préparation coordonnée des données, car la qualité des données reste l'un des principaux obstacles à la modernisation des processus d'analyse dans le nuage par toutes les organisations ».

La mauvaise qualité des données constitue un obstacle majeur à l'adoption de l'IA et l’analyse des données dans le nuage

Malgré la croissance massive du cloud computing pour l’IA et l’analyse des données, les résultats de l'enquête montrent qu’il y a de nombreux défis à relever. Les résultats de l’enquête montrent que la préparation correcte des données est un problème permanent, 46 % des personnes interrogées y consacrant plus de 10 heures pour une initiative d'analyse et d'AI/ML, tandis que d'autres consacrent plus de 40 heures par semaine aux seuls processus de préparation des données. Par ailleurs, 60 % des répondants parmi les cadres supérieurs utilisent actuellement l'IA pour préparer les données, d’après l’enquête.

Bien que le processus de préparation des données semble prendre trop de temps, la mauvaise préparation ou la négligence de cette étape conduit à des problèmes reconnus à un niveau supérieur. En effet, parmi les personnes interrogées de la catégorie des cadres supérieurs, 38 % affirment que la mauvaise qualité des données est à l’origine du retard dans les projets d’analyses et d'IA/ML, tandis que 36 % disent qu'ils coûtent plus cher ou n'atteignent pas les résultats escomptés (33 %). Étant donné que 71 % des organisations dépendent de l'analyse des données pour prendre leurs futures décisions commerciales, ces inefficacités drainent les ressources et empêchent de recueillir des informations essentielles à la croissance globale de l'entreprise.


La préparation des données est essentielle à la réussite de tout projet d'analyse. Selon les résultats de l’enquête, certaines des principales conséquences de l'inexactitude des données résultent d'une mauvaise estimation de la demande (59 %) et du ciblage de mauvaises perspectives (26 %). Selon l’enquête, les décisions prises à partir des données s'amélioreraient si les organisations étaient en mesure d'intégrer un ensemble plus large de données dans leur analyse, comme les données non structurées de tiers provenant de clients, les données semi-structurées ou les données provenant de bases de données relationnelles.

Seuls 26% ont déclaré lors de l’enquête que leurs données sont complètement exactes avant la préparation et le nettoyage.

Selon le rapport d’enquête, un ensemble de données propre est essentiel pour les projets d'IA et de ML, mais comme les sources de données augmentent, à la fois dans le nuage et sur site, il est difficile pour les entreprises de lutter contre les problèmes causés par les incohérences et l'inexactitude des données. En effet, 90 % des données mondiales ont été créées au cours des deux dernières années et l'on s'attend à ce que d'ici 2020, 463 exabytes de données soient créés chaque jour à partir des Wearables, de réseaux de médias sociaux, de communications (entreprises et consommateurs), de transactions et d'appareils connectés, d’après le rapport.

Le rapport retient également que les organisations ne peuvent plus compter sur l’intégration des données héritées et cloisonnées pour traiter la vitesse, l'échelle et la diversité des données actuelles. Selon le Harvard Business Review cité par le rapport, « La mauvaise qualité des données est l'ennemi numéro un de l'utilisation rentable et généralisée de l'apprentissage machine ».

Source : Trifacta

Et vous ?

Vous aussi, pensez-vous que le manque de confiance dans les données conduit à des défaillances de l'IA ?
Que pensez-vous des chiffres du rapport ?

Lire aussi

L'année 2020 marquera les débuts d'une véritable adoption de l'IA dans les entreprises, selon une étude d'IBM
Accenture : seulement 16 % des entreprises ont trouvé comment faire fonctionner l'IA à échelle, conduisant à un rendement d'environ trois fois supérieur à celui des autres entreprises
2/3 des utilisateurs d'IA déclarent que les technologies de l'IA jouent un rôle essentiel dans leur entreprise, selon un rapport de Deloitte
Le nombre de projets d'IA dans les entreprises devrait doubler au cours de l'année prochaine, selon Gartner

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de esperanto
Membre éprouvé https://www.developpez.com
Le 24/01/2020 à 15:21
Citation Envoyé par Stan Adkens Voir le message
Vous aussi, pensez-vous que le manque de confiance dans les données conduit à des défaillances de l'IA ?
Pas sûr de comprendre le terme "manque de confiance" ici. Mais je confirme l'importance de la préparation des données. J'ai même un exemple concret, où un excès de confiance dans les données a conduit a des défaillances de l'IA.
L'exemple, c'est celui des traducteurs automatiques à base de statistiques, comme Google Translate et DeepL. Bon, certains diront sans doute qu'on est passé aux moteurs neuronaux, mais fondamentalement, le principe reste le même: absorber de grandes quantités de traductions déjà faites et laisser une IA "apprendre" des règles qu'elle seule comprend.

Au début, cette technique s'est avérée extrêmement efficace. On a tous vu des exemples où des expressions toutes faites comme "il pleut des cordes" étaient correctement traduites là où les anciens systèmes donnaient une traduction littérale, quasi mot à mot. Mais c'est seulement parce que ces expressions apparaissaient dans beaucoup de textes que l'ordinateur pouvait déduire une "règle" qui n'a de valeur que statistique.
Pour améliorer encore le système, on y a ajouté toujours plus de textes déjà traduits, le système pouvant continuer d'apprendre progressivement.

Et puis finalement ça a commencé à se dégrader.
Que s'était-il passé?
En fait les gens étaient tellement pressés d'ajouter sans cesse de nouvelles traductions, qu'ils ne se rendaient même plus compte que celles-ci provenaient... du traducteur automatique lui-même! Et alimenté par son propre travail, ça n’améliore absolument pas la qualité, bien au contraire: on dit parfois qu'un système peut apprendre de ses propres erreurs, mais là, comme il ne sait pas que ce sont des erreurs, c'est vraiment au sens littéral du terme!

L'inconvénient de l'abondance de données, c'est qu'il faut quand même un humain pour faire le tri (et le turc mécanique a donc encore de beaux jours devant lui!)
7  0 
Avatar de tanaka59
Membre émérite https://www.developpez.com
Le 24/01/2020 à 23:02
Bonsoir,

Vous aussi, pensez-vous que le manque de confiance dans les données conduit à des défaillances de l'IA ?
Tout à fait !

Surtout quand on brule les étapes... Genre ne pas avoir de dev/recettage/prod ! Combien de fois on assiste à des boites qui dégage le recettage pour des questions d'economie de programme ... C'est pire que mieux . La Dev devient recettage voir la prod ... et la qualité de la date devient pourrie
0  0 
Avatar de sergio_is_back
Membre expert https://www.developpez.com
Le 25/01/2020 à 11:49
Quelle découverte, franchement !

On a souvent tendance à oublier que dans un processus de traitement d'information, quel qu'il soit : shit in = shit out !!!
0  0