IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'Inde demande aux entreprises technologiques d'obtenir une autorisation avant de diffuser des outils d'IA "peu fiables",
Le pays durcit ainsi sa position en matière de réglementation de l'IA

Le , par Mathis Lucas

5PARTAGES

3  0 
Les entreprises d'IA pourraient avoir du mal à pénétrer le marché indien à l'avenir, car le pays a choisi de durcir sa position en matière d'IA. Le gouvernement indien a publié un avis qui informe les entreprises qu'elles doivent obtenir une autorisation avant de rendre publics des produits d'IA qui ne sont pas fiables ou qui sont à l'essai. L'avis précise que ces outils d'IA devraient être étiquetés en raison de la possibilité qu'ils renvoient des réponses erronées aux questions des utilisateurs. Selon les experts, ces nouvelles règles pourraient nuire gravement à l'innovation dans le secteur indien de l'IA et creuser entre l'Inde et les autres pays dans la course mondiale à l'IA.

L'Inde a récemment introduit de nouvelles règles en matière d'IA. Alors que le pays a semblé adopter une approche laxiste ou permissive au départ, les nouvelles règles s'avèrent très strictes et suscitent de nombreuses critiques dans la communauté. Dans un nouvel avis publié récemment, l'Inde demande aux entreprises technologiques d'obtenir son accord avant de rendre publics des outils d'IA qui ne sont pas fiables ou qui sont à l'essai. « Ces règles sont un coup dur pour les entreprises qui voudront publier leurs modèles à l'avenir. Le gouvernement décidera du modèle qui est apte à être publié ou non », a écrit un critique.

L'avis a été publié le 1er mars et indique également que ces systèmes d'IA devront être étiquetés comme susceptibles de fournir des réponses erronées aux questions des utilisateurs. En outre, l'avis indique : « l'utilisation de ces outils, y compris l'IA générative, et leur mise à disposition des utilisateurs sur l'Internet indien doivent se faire avec l'autorisation explicite du gouvernement indien ». Pour finir, le gouvernement indien exige également que les entreprises technologiques s'assurent que leurs services ou produits d'IA ne permettent pas de biais ou de discrimination et ne menacent pas l'intégrité du processus électoral.

[tweet]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">These are direct violations of Rule 3(1)(b) of Intermediary Rules (IT rules) of the IT act and violations of several provisions of the Criminal code. <a href="https://twitter.com/GoogleAI?ref_src=twsrc%5Etfw">@GoogleAI</a> <a href="https://twitter.com/GoogleIndia?ref_src=twsrc%5Etfw">@GoogleIndia</a> <a href="https://twitter.com/GoI_MeitY?ref_src=twsrc%5Etfw">@GoI_MeitY</a> <a href="https://t.co/9Jk0flkamN">https://t.co/9Jk0flkamN</a></p>&mdash; Rajeev Chandrasekhar &#127470;&#127475;(Modiyude Kutumbam) (@Rajeev_GoI) <a href="https://twitter.com/Rajeev_GoI/status/1760910808773710038?ref_src=twsrc%5Etfw">February 23, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/tweet]

Ce nouvel avis intervient peu après que l'un des principaux ministres indiens a critiqué Google et son système d'IA Gemini pour ses réponses jugées "inexactes" ou partiales, dont l'une affirmait que le Premier ministre indien Narendra Modi avait été qualifié par certains de "fasciste". Google s'est excusé pour les lacunes de Gemini et a déclaré qu'il n'est pas toujours fiable, en particulier pour les sujets d'actualité sociale. Rajeev Chandrasekhar, vice-ministre indien des Technologies de l'information, a répondu à Google en déclarant dans un message : « la sécurité et la confiance sont des obligations légales pour les plateformes ».

Chandrasekhar a ajouté : « l'expression "désolé de ne pas être fiable" n'échappe pas à la loi ». Bien que le ministère admette que l'avis n'est pas juridiquement contraignant, Chandrasekhar a déclaré que "cet avis signale qu'il s'agit de l'avenir de la réglementation". Il a aussi ajouté : « nous le faisons à titre de conseil. Nous le faisons aujourd'hui sous la forme d'un avis vous demandant de vous y conformer ». Dans un autre message publié lundi sur X, Chandrasekhar a expliqué que "les nouvelles règles visaient les plateformes d'IA non testées qui se déploient sur l'Internet indien et qu'il ne s'appliquait pas aux startups d'IA".

Dans son avis, le ministère cite les pouvoirs qui lui sont conférés par la loi sur les technologies de l'information de 2000 et les règles sur les technologies de l'information de 2021. À ce titre, le ministère demande une mise en conformité avec "effet immédiat" et invite les entreprises technologiques à lui soumettre "un rapport sur les mesures prises et leur état d'avancement" dans un délai de 15 jours. Bien sûr, cela ne plaît pas aux critiques. « Il ne peut y avoir de modèles fiables dans l'état actuel des choses, car de nombreux problèmes des chatbots, comme l'hallucination et l'injection d'invites, persistent », note un critique.

« L'avis de l'Inde lui confère un grand pouvoir de censure et risque de nuire considérablement à l'innovation dans le secteur indien de l'IA. Les entreprises indiennes pourraient être contraintes de déménager dans les pays où la réglementation est plus permissive », a écrit un critique. Un autre ajoute : « cette position est parfaitement conforme aux autres politiques du gouvernement indien en matière de liberté d'expression, de liberté religieuse et de dissidence politique. Cet avis n'est donc pas objectivement surprenant. La seule surprise est qu'ils aient brièvement envisagé une approche très peu réglementée de l'IA ».

[tweet]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">I was such a fool thinking I will work bringing GenAI to Indian Agriculture from SF. We were training multimodal low cost pest and disease model, and so excited about it. This is terrible and demotivating after working 4yrs full time brining AI to this domain in India. <a href="https://t.co/Hou7hcjFOs">https://t.co/Hou7hcjFOs</a></p>&mdash; Pratik Desai (@chheplo) <a href="https://twitter.com/chheplo/status/1764434029838037271?ref_src=twsrc%5Etfw">March 3, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/tweet]

En effet, cet avis marque un revirement par rapport à l'approche non interventionniste adoptée précédemment par l'Inde en matière de réglementation de l'IA. Il y a moins d'un an, le ministère avait refusé de réglementer la croissance de l'IA, estimant que le secteur était vital pour les intérêts stratégiques de l'Inde. La décision de l'Inde a pris de nombreux dirigeants du secteur par surprise. De nombreuses startups et sociétés de capital-risque indiennes se disent effrayées par le nouvel avis et pensent qu'une telle réglementation entravera la capacité du pays à rivaliser dans la course mondiale, où il est déjà à la traîne.

« J'ai été tellement stupide en pensant que j'allais apporter l'IA générative à l'agriculture indienne. Nous formions un modèle multimodal à faible coût pour les ravageurs et les maladies, et nous étions si enthousiastes à ce sujet. C'est terrible et démotivant après avoir travaillé 4 ans à temps plein pour apporter l'IA à ce domaine en Inde », a déclaré Pratik Desai, fondateur de la startup Kisan AI. De nombreux dirigeants de la Silicon Valley ont également critiqué le changement de politique de l'Inde. Martin Casado, partenaire de la société de capital-risque Andreessen Horowitz, a déclaré : « bon sang. Quelle mascarade ! ».

Aravind Srinivas, cofondateur et directeur général de Perplexity AI, l'une des startups les plus en vue dans le domaine de l'IA, estime que "le nouvel avis de New Delhi était une mauvaise décision de la part de l'Inde". Par ailleurs, le gouvernement indien précise que le non-respect des nouvelles règles entraînerait des conséquences négatives pour les contrevenants. « Le non-respect des dispositions de la loi sur les technologies de l'Information et des règles en la matière entraînerait des conséquences pénales potentielles pour les intermédiaires, les plateformes ou leurs utilisateurs lorsqu'ils sont identifiés », ajoute l'avis.

De nombreuses réglementations visant à encadrer le développement et le déploiement de l'IA sont à l'étude dans le monde. Les acteurs du secteur de l'IA soutiennent l'idée, mais dans le même temps, ils craignent des règles trop strictes qui, selon eux, pourraient nuire à l'innovation. Pour empêcher cela, certains acteurs appellent à une réglementation mondiale en matière d'IA, ce qui permettrait d'uniformiser les règles du jeu pour tous les acteurs. Mais cette approche est loin d'être une réalité, chaque pays élaborant sa propre réglementation. Les implications potentielles du nouvel avis de l'Inde pourraient être dévastatrices.

[tweet]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Good fucking lord. What a travesty. Requiring government approval to deploy a model. <br><br>This is the inevitable outcome of rhetoric like Vinod’s. <br><br>It’s anti innovation. It’s anti public. And we all loose. <br><br>Keep AI open!!!! <a href="https://t.co/P3sBBS0q9U">pic.twitter.com/P3sBBS0q9U</a></p>&mdash; martin_casado (@martin_casado) <a href="https://twitter.com/martin_casado/status/1764408870804623753?ref_src=twsrc%5Etfw">March 3, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/tweet]

Chandrasekhar a réagi aux critiques concernant les nouvelles règles en affirmant qu'il devrait y avoir "des conséquences juridiques" pour les plateformes qui permettent ou diffusent directement des contenus illicites. Il a expliqué : « l'Inde croit en l'IA et s'y intéresse non seulement pour ses talents, mais aussi pour développer son écosystème numérique et d'innovation. Les ambitions de l'Inde en matière d'IA et la garantie que les internautes bénéficient d'un Internet sûr et fiable ne sont pas des objectifs à double sens ».

En novembre, le gouvernement indien avait déclaré qu'il introduirait de nouvelles réglementations pour aider à lutter contre la propagation des deepfakes générés par l'IA avant les prochaines élections, une mesure également mise en œuvre par les autorités de régulation aux États-Unis.

Source : avis du ministère indien des Technologies de l'information

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des nouvelles règles en matière d'IA introduites par l'Inde ?
Quelles pourraient être les implications de ces règles sur le secteur indien de l'IA ?
Selon vous, ces règles risquent-elles de nuire à l'innovation dans le secteur indien de l'IA ?
Que pensez-vous de la critique selon laquelle ces nouvelles règles constituent un outil de censure ?

Voir aussi

Les législateurs de l'UE s'accordent sur un projet de règles plus strictes en matière d'IA, les IA génératives comme ChatGPT devraient donner un résumé détaillé des données de formation sous copyright

La FTC propose de nouvelles protections pour lutter contre l'usurpation d'identité par l'IA, elle finalise un règlement interdisant la fraude à l'administration et à l'usurpation d'identité

L'IA accuse à tort un expert en intelligence artificielle d'avoir utilisé son téléphone au volant et lui inflige une amende de 380 euros, alors qu'il ne faisait que se gratter la tête

Une erreur dans cette actualité ? Signalez-nous-la !