Même si l’IA offre à l’homme des avantages incontestables, elle pose également un certain nombre de problèmes comme celui de la responsabilité ou encore de l’éthique. La question de l’éthique de l’IA est devenue une actualité très récurrente ces derniers temps. Pour Elon Musk, l’IA est plus dangereuse que l’arme nucléaire et Bill Gate la voit à la fois dangereuse et porteuse d’espoir. « ;L’IA est plus dangereuse que les ogives nucléaires et il devrait exister un organisme de réglementation supervisant le développement de cette technologie. Je ne suis pas normalement un partisan de la réglementation et de la surveillance, mais je pense qu’on ne devrait pas minimiser ces choses-là. Il s’agit d’une situation où le public court un très grave danger ;», a prévenu le patron de Tesla à la conférence South by Southwest (SXSW) cette année.
Cette réglementation dont il parle, beaucoup y ont pensé, les grandes firmes de technologie comme les institutions et les gouvernements. Le côté le plus abordé de ces problèmes a été depuis, les questions d’éthique que pose la technologie. Google, qui est l’un des premiers à organiser des assises sur ce fait, a pour sa part établi cette année un comité dédié à l’analyse de l'équité de l’IA que la société s'emploiera à consulter dans les années à venir pour développer ses solutions d’IA. Seulement, après une semaine et à la suite de vives contestations par rapport à la légitimité des membres qui composent ce comité, l’entreprise n’a pas eu d’autre choix que de dissoudre pour l’heure ce comité. D’autres ont fait remarquer que la question par rapport à l’éthique que souligne l’IA est plus difficile à cerner par un simple comité.
« Il est devenu évident que dans l'environnement actuel, ATEAC (Conseil consultatif externe sur les technologies de pointe) ne peut pas fonctionner comme nous le souhaitions. Nous dissolvons donc le conseil et retournons à la case départ. Nous continuerons d'être responsables de notre travail sur les questions importantes soulevées par l'intelligence artificielle et trouverons différents moyens d'obtenir des avis extérieurs sur ces sujets », a déclaré la société dans un communiqué la semaine dernière. Lorsqu’on touche du doigt les institutions, on peut citer la Commission européenne et les actions entreprises par cette dernière depuis l’année antérieure pour stimuler le développement de l’IA et mettre en place un système de suivi de la technologie.
À travers son centre de connaissances sur l'IA, AI Watch, la Commission européenne avait affirmé son engagement à assurer le suivi du développement de l'IA en Europe et de la mise en œuvre d’un plan coordonné au niveau de tous les États membres de l’Union. L’un des points principaux dans la vision de la Commission européenne énonçait la nécessité de développer une IA éthique et digne de confiance. Ainsi, la Commission a travaillé et mis en place un ensemble de règles pour inciter les entreprises technologiques des États membres de l’Union à développer une IA éthique et digne de confiance. Pour la Commission et le groupe d’experts ayant travaillé à la mise en place des lignes directives sur l’éthique en matière d’intelligence artificielle, une IA digne de confiance devra respecter toutes les lois et tous les règlements applicables ainsi que la série d'exigences qu’ils ont établies.
Chaque solution ou chaque technologie basée sur l’IA doit se conformer désormais à la liste d’évaluation spécifique et à chacune des exigences clés ci-dessous :
- agence humaine et supervision : les systèmes d'IA devraient permettre la création de sociétés équitables en soutenant l'action humaine et les droits fondamentaux, et non pas réduire, limiter ou égarer l'autonomie humaine ;
- robustesse et sécurité : l'IA de confiance exige que les algorithmes soient suffisamment sûrs, suffisamment fiables et robustes pour traiter les erreurs ou incohérences au cours de toutes les phases du cycle de vie des systèmes d'IA ;
- protection de la vie privée et gouvernance des données : les citoyens devraient avoir le plein contrôle de leurs propres données, tandis que les données les concernant ne seront pas utilisées pour les nuire ou les discriminer ;
- transparence : la traçabilité des systèmes d’IA devrait être assurée ;
- diversité, non-discrimination et équité : les systèmes d’IA doivent prendre en compte l’ensemble des capacités, compétences et exigences humaines et en garantir l’accessibilité ;
- bien-être sociétal et environnemental : les systèmes d'IA devraient être utilisés pour favoriser un changement social positif et renforcer la durabilité et la responsabilité écologique ;
- responsabilité : des mécanismes devraient être mis en place pour garantir la responsabilité des systèmes d'IA et de leurs résultats.
Cela dit, pour l’UE, les entreprises travaillant sur l'intelligence artificielle doivent mettre en place des mécanismes de responsabilisation afin d'éviter leur utilisation abusive. De plus, explique Reuters, les projets d'intelligence artificielle doivent être transparents, soumis à un contrôle humain, à des algorithmes sûrs et fiables, et ils doivent être soumis aux règles de protection de la vie privée et des données. « La dimension éthique de l'intelligence artificielle n'est pas une fonctionnalité de luxe ou un ajout. C’est seulement avec confiance que notre société pourra tirer pleinement parti des technologies », a déclaré Andrus Ansip, responsable du numérique à la Commission, dans un communiqué hier.
L’UE a indiqué qu’elle lancera dès juin prochain une phase pilote du projet. La Commission lancera une phase pilote qui va associer un large éventail de parties prenantes. Selon les explications de la Commission, les entreprises, les administrations publiques et les organisations peuvent adhérer à l'Alliance européenne sur l’IA et recevoir une notification lorsque la phase pilote démarre. Ainsi, au début de l’année 2020, le groupe d'experts sur l'IA examinera les listes d'évaluation des principales exigences en s'appuyant sur les commentaires reçus pendant la phase pilote. Sur la base de cet examen, la Commission évaluera les résultats et proposera les prochaines étapes.
Le président d'IBM Europe, Martin Jetter, qui fait partie du groupe d'experts a déclaré que les directives établissaient une norme mondiale pour les efforts visant à faire progresser l'IA de manière éthique et responsable. Cependant, Achim Berg, président de BITKOM, l'association fédérale allemande de la technologie de l'information, des télécommunications et des nouveaux médias a pour sa part indiqué que les lignes directrices ne devraient pas retenir l'Europe. « En Allemagne et en Europe, nous devons veiller à ce que nous ne discutions pas seulement d'IA, mais que nous en fabriquions », a-t-il déclaré.
Sources : Reuters, Rapport AI Ethics Guidelines
Et vous ?
Que pensez-vous des propositions de l'EU ?
Voir aussi
Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire alors que Bill Gates estime que l'IA est à la fois porteuse d'espoir et dangereuse
IA : Google ne renouvellera pas son contrat avec le DoD dans le projet controversé Maven, sa réputation est mise en jeu
Google dissout son conseil d'éthique de l'IA une semaine à peine après sa mise en place suite à un mouvement collectif d'indignation