Lors de sa conférence TED, Mme Toner a déclaré que les entreprises d'IA devraient être tenues de « partager des informations sur ce qu'elles construisent, sur ce que leurs systèmes peuvent faire et sur la manière dont elles gèrent les risques. » Elle a en sus ajouté que ces informations à partager avec le public devraient faire l'objet d'un audit, de sorte que les entreprises d'IA ne soient pas les seules à vérifier les informations qu'elles fournissent.
Un exemple de cas où la technologie pourrait mal tourner serait son utilisation dans une cyberaattaque basée sur l'intelligence artificielle. L’ex membre du conseil d’administration d’OpenAI a déclaré qu'elle travaillait depuis huit ans sur les questions de politique et de gouvernance liées à l'IA et qu'elle avait pu observer de l'intérieur la manière dont le gouvernement et l'industrie s'efforçaient de gérer la technologie.
L’Inde par exemple exige aux entreprises technologiques d’obtenir une autorisation avant de procéder à la diffusion d’outils d’intelligence artificielle
L'Inde a introduit de nouvelles règles en matière d'IA. Alors que le pays a semblé adopter une approche laxiste ou permissive au départ, les nouvelles règles s'avèrent très strictes et suscitent de nombreuses critiques dans la communauté. Dans un nouvel avis publié récemment, l'Inde demande aux entreprises technologiques d'obtenir son accord avant de rendre publics des outils d'IA qui ne sont pas fiables ou qui sont à l'essai. « Ces règles sont un coup dur pour les entreprises qui voudront publier leurs modèles à l'avenir. Le gouvernement décidera du modèle qui est apte à être publié ou non », a écrit un critique.
L'avis a été publié le 1er mars et indique également que ces systèmes d'IA devront être étiquetés comme susceptibles de fournir des réponses erronées aux questions des utilisateurs. En outre, l'avis indique : « l'utilisation de ces outils, y compris l'IA générative, et leur mise à disposition des utilisateurs sur l'Internet indien doivent se faire avec l'autorisation explicite du gouvernement indien ». Pour finir, le gouvernement indien exige également que les entreprises technologiques s'assurent que leurs services ou produits d'IA ne permettent pas de biais ou de discrimination et ne menacent pas l'intégrité du processus électoral.
Ce nouvel avis intervenait peu après que l'un des principaux ministres indiens a critiqué Google et son système d'IA Gemini pour ses réponses jugées "inexactes" ou partiales, dont l'une affirmait que le Premier ministre indien Narendra Modi avait été qualifié par certains de "fasciste". Google s'est excusé pour les lacunes de Gemini et a déclaré qu'il n'est pas toujours fiable, en particulier pour les sujets d'actualité sociale. Rajeev Chandrasekhar, vice-ministre indien des Technologies de l'information, a répondu à Google en déclarant dans un message : « la sécurité et la confiance sont des obligations légales pour les plateformes ».
De nombreuses organisations et experts de la filière intelligence artificielle sont néanmoins d’avis que la réglementation est un frein à l’innovation
C’est la raison d’être de la lettre de mise en garde contre le fait qu'en vertu des règles proposées par l'UE, les technologies telles que l'IA générative deviendraient fortement réglementées et que les entreprises développant de tels systèmes seraient confrontées à des coûts de mise en conformité élevés et à des risques de responsabilité disproportionnés.
Une telle réglementation pourrait conduire des entreprises très innovantes à transférer leurs activités à l'étranger et les investisseurs à retirer leurs capitaux du développement de l'IA européenne en général.
John Loeber, co-fondateur et PDG de Limit, une société de courtage numérique de série A pour l'assurance commerciale liste une série d’inconvénients de la réglementation européenne en matière d’intelligence artificielle :
- Faute de principes unificateurs/généraux, de nouvelles réglementations devront être ajoutées pour chaque nouveau cas futur. Il y a une nouvelle application ? Consacrons mille heures de temps aux législateurs pour ajouter un ensemble de règles supplémentaires.
- Ironiquement, la spécificité des règles rend flou leur application ou non, ce qui invite au débat contradictoire : « ma demande utilise-t-elle réellement des données biométriques ? Non, ce sont des métadonnées… » ou « Mon application effectue-t-elle une notation de crédit social interdite ? Non, nous vendons en réalité une évaluation actuarielle des risques et vous choisissez comment l’utiliser… »
- D’un autre côté, la loi sur l’IA réglemente les techniques si élémentaires que la plupart des entreprises technologiques seront techniquement en situation de non-conformité dès le premier jour.
Et s’ils sont poursuivis, quelles sont les sanctions ? Jusqu'à 7% du chiffre d'affaires annuel mondial. C'est une farce. Si l’UE affirme que cette technologie est si dangereuse qu’elle nécessite une réglementation à l’échelle européenne, alors les sanctions devraient en réalité être beaucoup plus lourdes. S’il y a un mauvais acteur qui dirige une entreprise d’IA massivement abusive et que la plus grande menace à laquelle il est confronté est une pénalité de revenus de 7 % qu’il peut probablement réduire à 2 % après quelques années de litige, alors cela n’a aucun effet dissuasif ! Ces entreprises fonctionnent avec une marge brute de 75 %. Vous avez une année qui tourne à 73% ? Cela n’a pas d’importance.
Cela place la loi sur l’IA dans une situation intermédiaire lamentable en matière de réglementation : suffisamment ennuyeuse pour dissuader les entrepreneurs légitimes, suffisamment édentée pour ne pas empêcher des abus à grande échelle. Je suis choqué que la loi sur l’IA ne prévoie aucune possibilité d’interdire quelque chose qui serait réellement dangereux, comme une machine de propagande optimisée par l’IA et financée par l’État, se faisant passer pour un réseau social. S’ils ne peuvent pas interdire des produits, alors il ne s’agit pas de protection des consommateurs : il s’agit simplement d’extraction de richesses », ajoute-t-il.
Source : TED
Et vous ?
Quelle lecture faites-vous de l'analyse de John Loeber ? La trouver vous pertinente ou pas vraiment ? Dans quelle mesure ?
Pensez-vous que le projet de loi européen sur l’IA protège suffisamment les droits des citoyens ou entrave-t-il l’innovation dans le domaine de l’IA ?
Comment l’Europe peut-elle équilibrer la nécessité de réglementer l’IA tout en favorisant un environnement propice à la recherche et au développement ?
Quels sont les principaux obstacles que rencontrent les entreprises technologiques en Europe pour se développer à l’échelle de l’UE ?
Comment l’Europe peut-elle encourager un état d’esprit orienté vers la production et l’innovation technologique au sein de sa population ?
Quelles mesures spécifiques les régulateurs européens devraient-ils prendre pour faciliter la création de richesse plutôt que la consommation de richesse ?
Quel rôle les universités européennes peuvent-elles jouer dans le soutien à l’essor de l’IA et de la technologie en Europe ?
Voir aussi :
Microsoft annonce que son assistant d'IA de productivité Copilot est maintenant disponible pour tous, et affirme que cela vise à améliorer son accessibilité et son utilité pour les utilisateurs
Microsoft pense que l'avenir de l'IA passe par l'énergie nucléaire. Le géant de la technologie serait en train de former une IA pour l'aider à obtenir l'autorisation réglementaire
Conférence développeurs et IT Pro Ignite 2023 : Microsoft dévoile sa stratégie pour l'IA, le Cloud, et la sécurité, ainsi que pour Windows, Copilot, ChatGPT, GTP-4, Azure, et Microsoft Office 365