NTT et Yomiuri Shimbun sont respectivement la plus grande entreprise de télécommunications et le plus grand journal du Japon. Ils ont lancé un avertissement au sujet de l'IA, affirmant que si on la laisse agir sans contrôle, elle pourrait entraîner l'effondrement de la société telle que nous la connaissons. Bien qu'ils pensent que l'IA devrait également améliorer la productivité du travail dans une certaine mesure, NTT et Yomiuri Shimbun exhortent les législateurs à réviser les lois entourant la technologie et à élaborer des règles strictes visant à contrôler son développement. Ils encouragent les législateurs à agir rapidement.
Dans son communiqué, le groupe a déclaré : « comme l'IA générative offre des interfaces et des expériences conviviales, on s'attend à ce qu'elle améliore la productivité du travail. Toutefois, la précision des résultats de l'IA générative ne peut pas être totalement garantie à l'heure actuelle, et l'utilisation illimitée de l'IA générative pourrait causer divers problèmes pour l'humanité et la société. L'humanité doit prendre des mesures pour équilibrer le contrôle et l'utilisation de l'IA générative d'un point de vue technologique et institutionnel ». D'après le groupe, la technologie a déjà des effets négatifs sur les utilisateurs.
Les deux entreprises disent avoir mené une étude conjointe sur la gouvernance idéale pour l'IA générative depuis l'automne 2023. L'étude a abouti à ce qu'elles appellent "Proposition conjointe sur le développement de l'IA générative". Le document indique : « si l'on permet à l'IA générative de se développer sans contrôle, la confiance dans la société dans son ensemble pourrait être endommagée, puisque les gens se méfient les uns des autres et les incitations à garantir l'authenticité et la fiabilité sont perdues. Il est à craindre que, dans le pire des cas, la démocratie et l'ordre social ne s'effondrent, entraînant des guerres ».
Selon les deux entreprises, les humains sont incapables de contrôler pleinement cette technologie, car l'IA ment avec assurance et "les humains se laissent facilement berner". Elles estiment en outre que "la conception de systèmes d'IA visant à attirer l'attention des utilisateurs a également été préjudiciable, portant atteinte à l'autonomie et à la dignité, qui sont des valeurs essentielles permettant aux individus de notre société d'être libres". Elles critiquent l'utilisation de l'IA dans les écoles, en particulier pour les jeunes élèves dont "la capacité à prendre des décisions appropriées n'a pas encore atteint sa pleine maturité".
Le groupe demande au gouvernement japonais de prendre des mesures, notamment en adoptant des lois qui protègent les élections et la sécurité nationale et en renforçant les lois sur le droit d'auteur. Reconnaissant que toute réforme juridique prendra du temps, les organisations appellent les médias et les dirigeants industriels du pays à introduire des règles entourant la diffusion des technologies de l'IA. Voici ci-dessous les perspectives et les approches de solution que NTT et Yomiuri Shimbun proposent d'explorer à l'avenir :
- l'IA générative va entrer dans une phase d'innovation (changements accompagnant la diffusion sociale) ;
- des mesures visant à garantir un espace de discussion sain doivent être prises immédiatement. De fortes restrictions sont particulièrement nécessaires pour les élections et le domaine de la sécurité ;
- il est nécessaire d'envisager l'optimisation de la loi sur le droit d'auteur en fonction de l'époque, d'une manière compatible avec l'utilisation de l'IA générative, tant d'un point de vue institutionnel que technologique ;
- les mesures suivantes doivent être prises : introduction de règles et de réglementations communes, principalement par les médias et diverses industries, mise en place et diffusion de technologies efficaces et efforts de révision de la loi ;
- dans ce processus, le plus important est de protéger la dignité et la liberté des personnes afin de parvenir à l'autonomie individuelle. Les personnes concernées étudieront la situation en tenant compte des évaluations critiques fondées sur la valeur de la communauté.
Bien que le document soit prudent quant aux inconvénients de l'IA, il ne rejette pas la technologie dans son ensemble, notant que le génie est sorti de la bouteille depuis longtemps et qu'il n'y aura pas de retour en arrière. « La technologie de l'IA elle-même est déjà indispensable à la société. Si la technologie de l'IA est considérée dans son ensemble comme indigne de confiance en raison d'une IA générative incontrôlable, la productivité de l'humanité risque de diminuer », affirment les entreprises. Jusqu'à présent, le Japon, tout comme les États-Unis, est resté bloqué sur la question de la réglementation de l'IA.
L'Union européenne, quant à elle, a déjà ratifié un accord provisoire établissant des règles en matière d'IA qui pourraient donner le ton à la façon dont les autres pays agiront par la suite. La loi sur l'IA (EU AI Act), comme on l'appelle, fixe des règles pour un certain nombre de secteurs, de la banque aux transports, ainsi que des lignes directrices sur la manière dont les forces de l'ordre peuvent utiliser l'IA dans le cadre de leurs fonctions. Elle traite également de la manière dont les grands modèles de langage peuvent être construits, de manière à protéger à la fois la vie privée des individus et les secrets d'entreprise.
La loi européenne sur l'IA divise les applications de l'IA en plusieurs catégories de risque, allant de "inacceptable" à "élevé", "moyen" et "faible". Elle interdit les systèmes de notation sociale basés sur l'IA et tout outil biométrique utilisé pour deviner la race, les tendances politiques ou l'orientation sexuelle. Elle interdit l'utilisation de l'IA pour interpréter les émotions des personnes dans les écoles et sur les lieux de travail, ainsi que certains types de profilage automatisé visant à prédire la probabilité qu'une personne commette des crimes à l'avenir.
Elle impose des obligations, notamment en matière de transparence, pour les cas d'utilisation à haut risque dans les domaines tels que l'embauche et l'accès aux services publics. Beaucoup ont salué l'adoption de la législation sur l'IA, mais certaines de ces dispositions sont controversées. Certains critiques de la loi, dont le président français Emmanuel Macron, pensent que les dispositions de la loi sont trop strictes et qu'elles pourraient nuire à l'innovation. Elle a été adoptée en mars avec 523 voix pour, 46 contre et 49 votes non exprimés.
Sources : communiqué conjoint de NTT et Yomiuri Shimbun, rapport d'étude (PDF)
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des risques liés à l'IA évoqués par le groupe d'étude ?
L'IA est-elle en mesure de provoquer l'effondrement de l'ordre social ? Pourquoi ?
Les problèmes de l'IA, dont l'hallucination, peuvent-ils favoriser des guerres dans le futur ?
Que pensez-vous des propositions du groupe sur la gouvernance idéale de l'IA ? Sont-elles suffisantes ?
Voir aussi
Les législateurs européens adoptent la première loi importante pour réglementer l'IA dans le monde, mais elle pourrait potentiellement rendre le marché européen peu attrayant pour l'IA
« C'est notre dernière opportunité de nous réveiller », prévient un économiste qui estime que l'IA pourrait déstabiliser la démocratie et réduire les emplois si elle est mal orientée
Des conseillers en investissement paient le prix pour avoir vendu ce qui ressemblait beaucoup à des contes de fées sur l'IA, ils sont condamnés à 400 000 $ d'amendes pour avoir dupé leurs clients