IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'Inde demande aux entreprises technologiques d'obtenir une autorisation avant de diffuser des outils d'IA "peu fiables",
Le pays durcit ainsi sa position en matière de réglementation de l'IA

Le , par Mathis Lucas

10PARTAGES

4  0 
L'Inde demande aux entreprises technologiques d'obtenir une autorisation avant de diffuser des outils d'IA "peu fiables"
le pays durcit ainsi sa position en matière de réglementation de l'IA

Les entreprises d'IA pourraient avoir du mal à pénétrer le marché indien à l'avenir, car le pays a choisi de durcir sa position en matière d'IA. Le gouvernement indien a publié un avis qui informe les entreprises qu'elles doivent obtenir une autorisation avant de rendre publics des produits d'IA qui ne sont pas fiables ou qui sont à l'essai. L'avis précise que ces outils d'IA devraient être étiquetés en raison de la possibilité qu'ils renvoient des réponses erronées aux questions des utilisateurs. Selon les experts, ces nouvelles règles pourraient nuire gravement à l'innovation dans le secteur indien de l'IA et creuser entre l'Inde et les autres pays dans la course mondiale à l'IA.

L'Inde a récemment introduit de nouvelles règles en matière d'IA. Alors que le pays a semblé adopter une approche laxiste ou permissive au départ, les nouvelles règles s'avèrent très strictes et suscitent de nombreuses critiques dans la communauté. Dans un nouvel avis publié récemment, l'Inde demande aux entreprises technologiques d'obtenir son accord avant de rendre publics des outils d'IA qui ne sont pas fiables ou qui sont à l'essai. « Ces règles sont un coup dur pour les entreprises qui voudront publier leurs modèles à l'avenir. Le gouvernement décidera du modèle qui est apte à être publié ou non », a écrit un critique.

L'avis a été publié le 1er mars et indique également que ces systèmes d'IA devront être étiquetés comme susceptibles de fournir des réponses erronées aux questions des utilisateurs. En outre, l'avis indique : « l'utilisation de ces outils, y compris l'IA générative, et leur mise à disposition des utilisateurs sur l'Internet indien doivent se faire avec l'autorisation explicite du gouvernement indien ». Pour finir, le gouvernement indien exige également que les entreprises technologiques s'assurent que leurs services ou produits d'IA ne permettent pas de biais ou de discrimination et ne menacent pas l'intégrité du processus électoral.



Ce nouvel avis intervient peu après que l'un des principaux ministres indiens a critiqué Google et son système d'IA Gemini pour ses réponses jugées "inexactes" ou partiales, dont l'une affirmait que le Premier ministre indien Narendra Modi avait été qualifié par certains de "fasciste". Google s'est excusé pour les lacunes de Gemini et a déclaré qu'il n'est pas toujours fiable, en particulier pour les sujets d'actualité sociale. Rajeev Chandrasekhar, vice-ministre indien des Technologies de l'information, a répondu à Google en déclarant dans un message : « la sécurité et la confiance sont des obligations légales pour les plateformes ».

Chandrasekhar a ajouté : « l'expression "désolé de ne pas être fiable" n'échappe pas à la loi ». Bien que le ministère admette que l'avis n'est pas juridiquement contraignant, Chandrasekhar a déclaré que "cet avis signale qu'il s'agit de l'avenir de la réglementation". Il a aussi ajouté : « nous le faisons à titre de conseil. Nous le faisons aujourd'hui sous la forme d'un avis vous demandant de vous y conformer ». Dans un autre message publié lundi sur X, Chandrasekhar a expliqué que "les nouvelles règles visaient les plateformes d'IA non testées qui se déploient sur l'Internet indien et qu'il ne s'appliquait pas aux startups d'IA".

Dans son avis, le ministère cite les pouvoirs qui lui sont conférés par la loi sur les technologies de l'information de 2000 et les règles sur les technologies de l'information de 2021. À ce titre, le ministère demande une mise en conformité avec "effet immédiat" et invite les entreprises technologiques à lui soumettre "un rapport sur les mesures prises et leur état d'avancement" dans un délai de 15 jours. Bien sûr, cela ne plaît pas aux critiques. « Il ne peut y avoir de modèles fiables dans l'état actuel des choses, car de nombreux problèmes des chatbots, comme l'hallucination et l'injection d'invites, persistent », note un critique.

« L'avis de l'Inde lui confère un grand pouvoir de censure et risque de nuire considérablement à l'innovation dans le secteur indien de l'IA. Les entreprises indiennes pourraient être contraintes de déménager dans les pays où la réglementation est plus permissive », a écrit un critique. Un autre ajoute : « cette position est parfaitement conforme aux autres politiques du gouvernement indien en matière de liberté d'expression, de liberté religieuse et de dissidence politique. Cet avis n'est donc pas objectivement surprenant. La seule surprise est qu'ils aient brièvement envisagé une approche très peu réglementée de l'IA ».



En effet, cet avis marque un revirement par rapport à l'approche non interventionniste adoptée précédemment par l'Inde en matière de réglementation de l'IA. Il y a moins d'un an, le ministère avait refusé de réglementer la croissance de l'IA, estimant que le secteur était vital pour les intérêts stratégiques de l'Inde. La décision de l'Inde a pris de nombreux dirigeants du secteur par surprise. De nombreuses startups et sociétés de capital-risque indiennes se disent effrayées par le nouvel avis et pensent qu'une telle réglementation entravera la capacité du pays à rivaliser dans la course mondiale, où il est déjà à la traîne.

« J'ai été tellement stupide en pensant que j'allais apporter l'IA générative à l'agriculture indienne. Nous formions un modèle multimodal à faible coût pour les ravageurs et les maladies, et nous étions si enthousiastes à ce sujet. C'est terrible et démotivant après avoir travaillé 4 ans à temps plein pour apporter l'IA à ce domaine en Inde », a déclaré Pratik Desai, fondateur de la startup Kisan AI. De nombreux dirigeants de la Silicon Valley ont également critiqué le changement de politique de l'Inde. Martin Casado, partenaire de la société de capital-risque Andreessen Horowitz, a déclaré : « bon sang. Quelle mascarade ! ».

Aravind Srinivas, cofondateur et directeur général de Perplexity AI, l'une des startups les plus en vue dans le domaine de l'IA, estime que "le nouvel avis de New Delhi était une mauvaise décision de la part de l'Inde". Par ailleurs, le gouvernement indien précise que le non-respect des nouvelles règles entraînerait des conséquences négatives pour les contrevenants. « Le non-respect des dispositions de la loi sur les technologies de l'Information et des règles en la matière entraînerait des conséquences pénales potentielles pour les intermédiaires, les plateformes ou leurs utilisateurs lorsqu'ils sont identifiés », ajoute l...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !