IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Deux tiers des décideurs en matière d'IA craignent de ne pas atteindre les objectifs éthiques de leur entreprise
D'autres risques sont liés à la hausse des coûts et aux mauvais résultats commerciaux

Le , par Sandra Coret

1PARTAGES

11  0 
La pression exercée par le travail dans le secteur de l'IA est certainement immense et une nouvelle étude d'InRule Technology fait la lumière sur ce point. Le rapport comprend les résultats d'une étude menée à l'aide d'une enquête commandée par Forrester.

Les résultats montrent que près de deux tiers des décideurs en matière d'IA craignent de ne pas atteindre les objectifs éthiques de leur entreprise. Mais ce n'est que la partie émergée de l'iceberg en termes d'autres inquiétudes.

Les autres risques évoqués en détail sont liés à l'augmentation des coûts, aux mauvais résultats commerciaux et à la crainte de ne pas atteindre les objectifs réglementaires définis le premier jour. Il est intéressant de noter qu'environ 50 % seulement des répondants sont confiants dans leur capacité à surmonter ces risques.

66 % des personnes interrogées s'accordent à dire que dans le monde numérique actuel, où tout va très vite, l'intelligence artificielle, associée à l'apprentissage automatique, fait des merveilles en termes de prise de décisions pour des raisons numériques. Et ces chiffres sont censés être multipliés par près de trois au cours des prochaines années.

L'intégration de différents types de technologies en termes de processus automatisés présente encore un grand nombre de complexités, et cela crée d'énormes obstacles.


Il existe aujourd'hui deux types d'automatisation des processus : La robotique et le numérique et, bien qu'ils soient tous deux assez courants, ils ne semblent pas répondre aux exigences exactes en termes d'automatisation complète.

Il est évident que beaucoup hésitent à adopter ces technologies en raison de leur complexité et de leur exigence en termes de maintien des résultats.

Et si de plus en plus d'entreprises créent des modèles d'affaires avec des solutions automatiques, les choses peuvent devenir assez difficiles lorsque vous avez affaire à des méthodes qui ne s'intègrent pas toujours de manière transparente. Il faut donc les surveiller et les évaluer en permanence, ce qui n'est pas facile à faire régulièrement, comme le confirment les deux tiers des participants à l'étude.

Ils affirment que les problèmes posés par ces systèmes sont si nombreux que les décideurs informatiques ont parfois du mal à y faire face.

Certains vont même jusqu'à s'inquiéter des éléments de partialité nuisibles qui conduisent à une mauvaise prise de décision et à une perte d'efficacité opérationnelle. Et enfin, il y a une énorme crainte liée à la ruine des relations séculaires avec les clients.

Il est choquant de constater qu'il ne s'agit peut-être plus d'une crainte, mais d'une réalité, puisque trois quarts des personnes interrogées affirment que leur entreprise a pu observer de tels préjugés lors de la prise de décision numérique.


Source : InRule Technology

Et vous ?

Trouvez-vous cette étude pertinente ?
Quelle importance est accordée à l'aspect éthique de l'IA au sein de votre organisation ?

Voir aussi :

Un nombre croissant d'entreprises reconnaissent la nécessité d'une intelligence artificielle éthique et de confiance mais les progrès en la matière restent inégaux, selon Capgemini

Un rapport révèle un désintérêt des chefs d'entreprise pour l'utilisation éthique et responsable de l'IA : seuls 20 % surveillent l'équité et l'éthique de leurs modèles en production

Des experts doutent que la conception éthique de l'IA soit largement adoptée comme la norme d'ici 2030, l'optimisation des profits et le contrôle social continueraient à guider l'évolution de l'IA

L'UE cherche à établir des normes mondiales pour l'utilisation de l'IA, mais des groupes de défense des droits civils s'inquiètent

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Expert confirmé https://www.developpez.com
Le 29/06/2022 à 7:39
Citation Envoyé par Sandra Coret Voir le message
Et vous ?
Trouvez-vous cette étude pertinente ?
Quelle importance est accordée à l'aspect éthique de l'IA au sein de votre organisation ?
Compliqué de dire si cette étude est pertinente, on manque de données sur le nombre de personnes consultées etc.
Mais ma société à mis en place une machine gérée par une IA et lance un autre projet IA et nous avons rencontré certaines problématiques éthiques et grandes discussions, notamment le jour où le chef de projet a mis dans sa slide "avantage de cette machine", je cite "nous pourrons licencié deux opérateurs une fois a machine complètement opérationnelle".
Il est ressorti de cette réunion une décision importante du comité de direction : tout projet IA de la société nécessitera l'implication d'opérateurs si elle risque d'impacter leur travail. La machine est utilisée aujourd'hui et le temps gagné par les opérateurs est utilisé à bon escient.
La deuxième IA est en cours de développement, la demande du projet a été faite par des opérateurs à qui on demande de prendre une décision aujourd'hui sans leur donner suffisamment d'info. Au point où nous en sommes l'IA fournirait une meilleure décision et leur ferait gagner environ 30 minutes par jour.

Quand je parle de traitement des données et d'indicateurs avec les gens, une bonne partie a pour objectif premier de se débarrasser de quelqu'un ou (prouver qu'il est incompétent/inefficace) ou de virer des gens.
Spoiler alert : un indicateur ne sait pas montrer qu'untel ou untel est incompétent ou inefficace. C'est l'interprétation de l'indicateur qui le dit (interprétation impactée par un biais important : c'est ce que veut montrer le manager depuis le début)
1  0