La pression exercée par le travail dans le secteur de l'IA est certainement immense et une nouvelle étude d'InRule Technology fait la lumière sur ce point. Le rapport comprend les résultats d'une étude menée à l'aide d'une enquête commandée par Forrester.
Les résultats montrent que près de deux tiers des décideurs en matière d'IA craignent de ne pas atteindre les objectifs éthiques de leur entreprise. Mais ce n'est que la partie émergée de l'iceberg en termes d'autres inquiétudes.
Les autres risques évoqués en détail sont liés à l'augmentation des coûts, aux mauvais résultats commerciaux et à la crainte de ne pas atteindre les objectifs réglementaires définis le premier jour. Il est intéressant de noter qu'environ 50 % seulement des répondants sont confiants dans leur capacité à surmonter ces risques.
66 % des personnes interrogées s'accordent à dire que dans le monde numérique actuel, où tout va très vite, l'intelligence artificielle, associée à l'apprentissage automatique, fait des merveilles en termes de prise de décisions pour des raisons numériques. Et ces chiffres sont censés être multipliés par près de trois au cours des prochaines années.
L'intégration de différents types de technologies en termes de processus automatisés présente encore un grand nombre de complexités, et cela crée d'énormes obstacles.
Il existe aujourd'hui deux types d'automatisation des processus : La robotique et le numérique et, bien qu'ils soient tous deux assez courants, ils ne semblent pas répondre aux exigences exactes en termes d'automatisation complète.
Il est évident que beaucoup hésitent à adopter ces technologies en raison de leur complexité et de leur exigence en termes de maintien des résultats.
Et si de plus en plus d'entreprises créent des modèles d'affaires avec des solutions automatiques, les choses peuvent devenir assez difficiles lorsque vous avez affaire à des méthodes qui ne s'intègrent pas toujours de manière transparente. Il faut donc les surveiller et les évaluer en permanence, ce qui n'est pas facile à faire régulièrement, comme le confirment les deux tiers des participants à l'étude.
Ils affirment que les problèmes posés par ces systèmes sont si nombreux que les décideurs informatiques ont parfois du mal à y faire face.
Certains vont même jusqu'à s'inquiéter des éléments de partialité nuisibles qui conduisent à une mauvaise prise de décision et à une perte d'efficacité opérationnelle. Et enfin, il y a une énorme crainte liée à la ruine des relations séculaires avec les clients.
Il est choquant de constater qu'il ne s'agit peut-être plus d'une crainte, mais d'une réalité, puisque trois quarts des personnes interrogées affirment que leur entreprise a pu observer de tels préjugés lors de la prise de décision numérique.
Source : InRule Technology
Et vous ?
Trouvez-vous cette étude pertinente ?
Quelle importance est accordée à l'aspect éthique de l'IA au sein de votre organisation ?
Voir aussi :
Un nombre croissant d'entreprises reconnaissent la nécessité d'une intelligence artificielle éthique et de confiance mais les progrès en la matière restent inégaux, selon Capgemini
Un rapport révèle un désintérêt des chefs d'entreprise pour l'utilisation éthique et responsable de l'IA : seuls 20 % surveillent l'équité et l'éthique de leurs modèles en production
Des experts doutent que la conception éthique de l'IA soit largement adoptée comme la norme d'ici 2030, l'optimisation des profits et le contrôle social continueraient à guider l'évolution de l'IA
L'UE cherche à établir des normes mondiales pour l'utilisation de l'IA, mais des groupes de défense des droits civils s'inquiètent
Deux tiers des décideurs en matière d'IA craignent de ne pas atteindre les objectifs éthiques de leur entreprise
D'autres risques sont liés à la hausse des coûts et aux mauvais résultats commerciaux
Deux tiers des décideurs en matière d'IA craignent de ne pas atteindre les objectifs éthiques de leur entreprise
D'autres risques sont liés à la hausse des coûts et aux mauvais résultats commerciaux
Le , par Sandra Coret
Une erreur dans cette actualité ? Signalez-nous-la !