Chaque système basé sur l'intelligence artificielle doit être responsable, explicable et impartial,
Selon l'Union européenne

Le , par Bill Fassinou

249PARTAGES

12  0 
L’automatisation dans les entreprises s’accélère à une vitesse remarquable dans tous les secteurs d'activités dans le monde. Les entreprises, les institutions et même les gouvernements misent désormais énormément sur les nouvelles technologies et plus encore, sur celles reposant sur l’intelligence artificielle (IA). Cela a entraîné une multiplication du nombre d’entreprises qui développent des solutions d’IA que ce soit en Europe, aux États-Unis et partout dans le monde. Cet engouement de la part des entreprises et des États pour l’IA soulève néanmoins quelques problèmes notamment ceux propres à l’éthique. Ainsi, les organisations comme la Commission européenne et d’autres sur les autres continents se hâtent pour se doter de lois pouvant encadrer cette technologie que beaucoup de personnes pensent être quelque peu dangereuse pour l’homme.

Même si l’IA offre à l’homme des avantages incontestables, elle pose également un certain nombre de problèmes comme celui de la responsabilité ou encore de l’éthique. La question de l’éthique de l’IA est devenue une actualité très récurrente ces derniers temps. Pour Elon Musk, l’IA est plus dangereuse que l’arme nucléaire et Bill Gate la voit à la fois dangereuse et porteuse d’espoir. « ;L’IA est plus dangereuse que les ogives nucléaires et il devrait exister un organisme de réglementation supervisant le développement de cette technologie. Je ne suis pas normalement un partisan de la réglementation et de la surveillance, mais je pense qu’on ne devrait pas minimiser ces choses-là. Il s’agit d’une situation où le public court un très grave danger ;», a prévenu le patron de Tesla à la conférence South by Southwest (SXSW) cette année.

Cette réglementation dont il parle, beaucoup y ont pensé, les grandes firmes de technologie comme les institutions et les gouvernements. Le côté le plus abordé de ces problèmes a été depuis, les questions d’éthique que pose la technologie. Google, qui est l’un des premiers à organiser des assises sur ce fait, a pour sa part établi cette année un comité dédié à l’analyse de l'équité de l’IA que la société s'emploiera à consulter dans les années à venir pour développer ses solutions d’IA. Seulement, après une semaine et à la suite de vives contestations par rapport à la légitimité des membres qui composent ce comité, l’entreprise n’a pas eu d’autre choix que de dissoudre pour l’heure ce comité. D’autres ont fait remarquer que la question par rapport à l’éthique que souligne l’IA est plus difficile à cerner par un simple comité.


« Il est devenu évident que dans l'environnement actuel, ATEAC (Conseil consultatif externe sur les technologies de pointe) ne peut pas fonctionner comme nous le souhaitions. Nous dissolvons donc le conseil et retournons à la case départ. Nous continuerons d'être responsables de notre travail sur les questions importantes soulevées par l'intelligence artificielle et trouverons différents moyens d'obtenir des avis extérieurs sur ces sujets », a déclaré la société dans un communiqué la semaine dernière. Lorsqu’on touche du doigt les institutions, on peut citer la Commission européenne et les actions entreprises par cette dernière depuis l’année antérieure pour stimuler le développement de l’IA et mettre en place un système de suivi de la technologie.

À travers son centre de connaissances sur l'IA, AI Watch, la Commission européenne avait affirmé son engagement à assurer le suivi du développement de l'IA en Europe et de la mise en œuvre d’un plan coordonné au niveau de tous les États membres de l’Union. L’un des points principaux dans la vision de la Commission européenne énonçait la nécessité de développer une IA éthique et digne de confiance. Ainsi, la Commission a travaillé et mis en place un ensemble de règles pour inciter les entreprises technologiques des États membres de l’Union à développer une IA éthique et digne de confiance. Pour la Commission et le groupe d’experts ayant travaillé à la mise en place des lignes directives sur l’éthique en matière d’intelligence artificielle, une IA digne de confiance devra respecter toutes les lois et tous les règlements applicables ainsi que la série d'exigences qu’ils ont établies.

Chaque solution ou chaque technologie basée sur l’IA doit se conformer désormais à la liste d’évaluation spécifique et à chacune des exigences clés ci-dessous :

  • agence humaine et supervision : les systèmes d'IA devraient permettre la création de sociétés équitables en soutenant l'action humaine et les droits fondamentaux, et non pas réduire, limiter ou égarer l'autonomie humaine ;
  • robustesse et sécurité : l'IA de confiance exige que les algorithmes soient suffisamment sûrs, suffisamment fiables et robustes pour traiter les erreurs ou incohérences au cours de toutes les phases du cycle de vie des systèmes d'IA ;
  • protection de la vie privée et gouvernance des données : les citoyens devraient avoir le plein contrôle de leurs propres données, tandis que les données les concernant ne seront pas utilisées pour les nuire ou les discriminer ;
  • transparence : la traçabilité des systèmes d’IA devrait être assurée ;
  • diversité, non-discrimination et équité : les systèmes d’IA doivent prendre en compte l’ensemble des capacités, compétences et exigences humaines et en garantir l’accessibilité ;
  • bien-être sociétal et environnemental : les systèmes d'IA devraient être utilisés pour favoriser un changement social positif et renforcer la durabilité et la responsabilité écologique ;
  • responsabilité : des mécanismes devraient être mis en place pour garantir la responsabilité des systèmes d'IA et de leurs résultats.

Cela dit, pour l’UE, les entreprises travaillant sur l'intelligence artificielle doivent mettre en place des mécanismes de responsabilisation afin d'éviter leur utilisation abusive. De plus, explique Reuters, les projets d'intelligence artificielle doivent être transparents, soumis à un contrôle humain, à des algorithmes sûrs et fiables, et ils doivent être soumis aux règles de protection de la vie privée et des données. « La dimension éthique de l'intelligence artificielle n'est pas une fonctionnalité de luxe ou un ajout. C’est seulement avec confiance que notre société pourra tirer pleinement parti des technologies », a déclaré Andrus Ansip, responsable du numérique à la Commission, dans un communiqué hier.

L’UE a indiqué qu’elle lancera dès juin prochain une phase pilote du projet. La Commission lancera une phase pilote qui va associer un large éventail de parties prenantes. Selon les explications de la Commission, les entreprises, les administrations publiques et les organisations peuvent adhérer à l'Alliance européenne sur l’IA et recevoir une notification lorsque la phase pilote démarre. Ainsi, au début de l’année 2020, le groupe d'experts sur l'IA examinera les listes d'évaluation des principales exigences en s'appuyant sur les commentaires reçus pendant la phase pilote. Sur la base de cet examen, la Commission évaluera les résultats et proposera les prochaines étapes.

Le président d'IBM Europe, Martin Jetter, qui fait partie du groupe d'experts a déclaré que les directives établissaient une norme mondiale pour les efforts visant à faire progresser l'IA de manière éthique et responsable. Cependant, Achim Berg, président de BITKOM, l'association fédérale allemande de la technologie de l'information, des télécommunications et des nouveaux médias a pour sa part indiqué que les lignes directrices ne devraient pas retenir l'Europe. « En Allemagne et en Europe, nous devons veiller à ce que nous ne discutions pas seulement d'IA, mais que nous en fabriquions », a-t-il déclaré.

Sources : Reuters, Rapport AI Ethics Guidelines

Et vous ?

Que pensez-vous des propositions de l'EU ?

Voir aussi

Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire alors que Bill Gates estime que l'IA est à la fois porteuse d'espoir et dangereuse

IA : Google ne renouvellera pas son contrat avec le DoD dans le projet controversé Maven, sa réputation est mise en jeu

Google dissout son conseil d'éthique de l'IA une semaine à peine après sa mise en place suite à un mouvement collectif d'indignation

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de pierre-y
Membre éprouvé https://www.developpez.com
Le 09/04/2019 à 16:45
Rien que le titre laisse songeur. En plus une europe basé sur l'ultra libéralisme...
2  0 
Avatar de marsupial
Membre expert https://www.developpez.com
Le 09/04/2019 à 17:22
Un cadre évitera-t-il les Cambridge analytica et robots-tueurs ?
1  0 
Avatar de Matthieu76
Membre éclairé https://www.developpez.com
Le 09/04/2019 à 19:19
responsable : Du coup si je fais un virus, j'ai qu'à dire que c'est une IA et ce n'est plus ma responsabilité mais cette du programme ? Je comprends pas...

explicable : À qui ? Car s'il faut expliqué 30 ans de recherche en intelligence artificielle au premier venu ça va être compliqué

impartial : Ça veut tout et rien dire... Et on pourrait dire exactement la même chose pour n'importe quelle programme, ça ne change absolument rien que ce soit une IA ou non. Exemple, l'ago Parcoursup
1  0 
Avatar de Mingolito
Membre extrêmement actif https://www.developpez.com
Le 09/04/2019 à 22:36
C'est du blabla politique sans intérêt et qui aura aucun impact réel.

Il faut bien que ces parasites justifient leurs salaires et avantages en natures mirobolants payés à nos frais en essayant de faire du vent.
1  0 
Avatar de BufferBob
Expert éminent https://www.developpez.com
Le 09/04/2019 à 16:07
Citation Envoyé par Bill Fassinou Voir le message
Chaque système basé sur l'intelligence artificielle doit être responsable, explicable et impartial selon l'Union européenne
(...)
Que pensez-vous des propositions de l'EU ?
que l'europe c'est pas si mal que ça ?
1  1 

 
Contacter le responsable de la rubrique Intelligence artificielle

Partenaire : Hébergement Web