Comment les entreprises se débrouillent-elles pour implémenter et déployer des intelligences artificielles responsables et s'assurer qu'elles utilisent l'intelligence artificielle de manière éthique, transparente, sûre et dans l'intérêt de leurs clients ? Le nouveau rapport publié par FICO et la société d'intelligence marketing Corinium, intitulé The State of Responsible AI, révèle que la plupart des 100 entreprises mondiales qui ont participé à l’enquête déploient l'intelligence artificielle en prenant des risques importants. Voici quelques résultats qui illustrent pourquoi :
- 65 % des entreprises interrogées ne peuvent pas expliquer comment les décisions ou les prédictions spécifiques des modèles d'intelligence artificielle sont prises ;
- 78 % ont eu du mal à obtenir le soutien de leurs directions respectives pour donner la priorité aux volets éthique et responsable des intelligences artificielles à implémenter et à déployer ;
- seul un cinquième (20 %) des entreprises participantes à l’enquête surveillent de façon active l'équité et l'éthique de leurs modèles en production.
En plus d'une incapacité généralisée troublante à expliquer comment les décisions ou les prédictions des modèles d'intelligence artificielle sont prises, l'étude révèle que 39 % des membres de conseils d'administration et 33 % des équipes de direction ont une compréhension incomplète de l'éthique de l'intelligence artificielle.
Avec des revenus mondiaux pour le marché de l'intelligence artificielle (y compris les logiciels, le matériel et les services) qui devraient augmenter de 16,4 % par an en 2021 pour atteindre 327,5 milliards de dollars, la dépendance des entreprises à la technologie de l'IA va continuer d'aller croissant. Les conclusions du rapport montrent qu'il est urgent d'élever l'importance de la gouvernance de l'intelligence artificielle et des problématiques liées à l'IA responsable au niveau du conseil d'administration ; les entreprises utilisent de plus en plus l'IA pour automatiser des processus clés qui, dans certains cas, prennent des décisions qui changent la vie de leurs clients. Ne pas comprendre comment ces décisions sont prises, et si elles sont éthiques et sûres, crée d'énormes vulnérabilités juridiques et des risques commerciaux.
Qui doit être tenu pour responsable de l’intelligence artificielle ?
Malgré l'engouement pour cette technologie, qu'est-ce qui explique le manque de sensibilisation à son utilisation responsable ? Une réponse tirée de l’étude : il n'y a pas de consensus parmi les cadres sur ce qu’est une intelligence artificielle éthique ainsi que sur les responsabilités d'une entreprise en matière d’implémentation et de déploiement d’une intelligence artificielle responsable. À titre d'exemple, près de la moitié (43 %) des personnes interrogées déclarent qu'elles n'ont aucune responsabilité, au-delà de la conformité réglementaire, pour gérer de manière éthique les systèmes d'IA qui prennent des décisions susceptibles d'affecter de façon indirecte les moyens de subsistance des personnes. Cela montre qu'il est nécessaire de renforcer la réglementation, si les concepteurs de l'IA ne considèrent pas que leur responsabilité va au-delà de ce que la réglementation existante impose ou, dans la plupart des cas, n'impose pas.
L'urgence de lutter contre les biais
Que peuvent faire les entreprises pour aider à inverser la tendance ? La lutte contre les biais des modèles d'intelligence artificielle est une première étape essentielle, mais de nombreuses entreprises ne l'ont pas pleinement opérationnalisée de manière efficace. L'étude révèle que 80 % des dirigeants axés sur l'IA peinent à établir des processus garantissant une utilisation responsable de l'intelligence artificielle.
Les entreprises reconnaissent que les choses doivent changer, car l'écrasante majorité (90 %) des répondants s'accordent à dire que les processus inefficaces de surveillance des modèles représentent un obstacle à l'adoption de l'intelligence artificielle. Heureusement, près des deux tiers (63 %) pensent que l'éthique de l'IA et l'IA responsable deviendront un élément central de la stratégie de leur organisation d'ici deux ans.
Il est clair que le monde des affaires est déterminé à favoriser la transformation grâce à l'automatisation par l'IA. Cependant, les hauts dirigeants et le conseil d'administration doivent être conscients des risques associés à cette technologie et des meilleures pratiques pour les atténuer de manière proactive. L'IA a le pouvoir de transformer le monde, mais comme le dit le dicton populaire : un grand pouvoir implique de grandes responsabilités.
Source : rapport
Et vous ?
Que pensez-vous des conclusions de ce rapport ? Quels sont ses aspects les plus pertinents ? Quels sont ceux qui manquent de pertinence ?
Une raison autre que l’absence de consensus sur ce qu’est une intelligence artificielle éthique peut-il expliquer cet état de choses ?
Voir aussi :
Le chef de Google, Sundar Pichai, s'excuse pour le licenciement d'une chercheuse en éthique de l'IA et s'engage à enquêter sur son départ de l'entreprise
Plus de 1000 employés de Google signent une lettre pour demander des comptes à l'entreprise au sujet du « licenciement » subit de leur collègue Timnit Gebru, une chercheuse de haut niveau en IA
IA : un guide éthique en développement chez Google pour répondre aux protestations contre la participation de l'entreprise à un projet du Pentagone
Google promet de ne pas utiliser l'IA pour le développement d'armes, mais informe qu'il va continuer à coopérer avec les militaires