IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La Corée du Sud devient le premier pays à promulguer et appliquer une loi-cadre sur l'intelligence artificielle, mais les start-ups mettent en garde contre les contraintes liées à leur mise en conformité

Le , par Stéphane le calme

0PARTAGES

3  0 
La Corée du Sud est devenue le premier pays au monde à se doter d’une loi-cadre globale sur l’intelligence artificielle. Avec son AI Basic Act, Séoul prend de vitesse l’Union européenne dans la régulation de l’IA, affichant l’ambition d’assurer un développement « fiable » des technologies tout en restant dans la course mondiale. Mais cette avance réglementaire suscite l’inquiétude des start-up locales, qui redoutent que des obligations floues et lourdes à appliquer ne freinent l’innovation.

Le 22 janvier 2026, la Corée du Sud a officiellement mis en vigueur l’AI Basic Act, présenté par Séoul comme le premier cadre législatif complet au monde dédié à l’intelligence artificielle. Par ce texte, adopté un an plus tôt, le gouvernement sud-coréen entend asseoir le pays parmi le top 3 des puissances mondiales de l’IA. Surtout, cette loi place la Corée du Sud en avance sur l’Union européenne, dont l'AI Act avec une entrée en vigueur à partir du 2 août 2026. Alors que Bruxelles peaufine encore sa réglementation, Séoul frappe fort en appliquant d’emblée une loi unifiée couvrant à la fois le secteur public et privé.

Cette Loi fondamentale pour le développement de l’IA et l’établissement d’une base de fiabilité (son nom complet en version française) témoigne d’une volonté politique claire : prendre les devants dans la gouvernance de l’IA pour en encadrer les usages et risques, sans attendre qu’un consensus international se forme. « Ce n’est pas pour nous vanter d’être les premiers au monde », a cependant affirmé un haut responsable, soulignant que la démarche s’inscrit dans la recherche d’un socle de consensus global sur l’IA fiable. En d’autres termes, la Corée du Sud se pose en laboratoire réglementaire d’une IA responsable, espérant influencer les normes internationales tout en confortant sa position de leader technologique en Asie.


Lutte contre les deepfake, mesures de promotion de l'écosystème IA : le cadre législatif manie aussi bien la carotte que le bâton

L’AI Basic Act sud-coréen se distingue par son étendue et son approche équilibrée. La loi consolide pas moins de 19 propositions qui étaient auparavant traitées séparément, pour les intégrer dans un cadre unifié couvrant tout le cycle de vie de l’IA – de la recherche et des infrastructures de données jusqu’à la sécurité des applications. Le texte ne se limite pas à poser des interdits : loin d’être purement restrictif, il prévoit aussi des mesures de promotion de l’écosystème IA – soutien aux start-up, programmes de formation de talents, création de pôles d’innovation – tout en instaurant les garde-fous éthiques jugés essentiels. Autrement dit, la Corée du Sud cherche à stimuler l’innovation tout en la canalisant dans un cadre responsable.

Concrètement, la loi introduit plusieurs obligations nouvelles. D’abord, elle définit la notion « d'IA à impact élevé » (high-impact AI) pour les systèmes dont les décisions peuvent affecter la vie ou la sécurité des personnes (par exemple en santé, transport, énergie, finance). Dans ces domaines critiques, les opérateurs devront garantir une supervision humaine des IA concernées. Ensuite, la loi s’attaque de front aux dérives de l’IA générative : tout contenu généré par IA susceptible d’être pris pour du contenu réel devra être explicitement signalé comme tel, via un étiquetage clair ou un filigrane inséré dans le texte, l’image ou la vidéo produite. Pour les contenus IA plus anodins, un marquage invisible (métadonnées) pourra suffire, et les usages strictement personnels ou non-commerciaux de l’IA sont exclus du champ de la loi – une façon de ne pas brider le grand public ni la recherche amateure.


Afin de lutter contre les nuisances type deepfakes ou désinformation, l’AI Basic Act fait peser sur les développeurs et fournisseurs d’IA la responsabilité des contenus générés. Les entreprises déployant des modèles d’IA devront prendre des mesures pour prévenir et corriger les infox ou trucages produits par leurs systèmes. Le gouvernement se dote pour cela d’un pouvoir d’enquête et de sanction : en cas de manquement grave (par exemple, diffusion non maîtrisée de faux contenus), les autorités pourront diligenter des investigations et infliger des amendes aux opérateurs fautifs. Autre innovation, inspirée du RGPD européen : les grands acteurs étrangers de l’IA (tels que Google ou OpenAI) ayant une forte activité en Corée (chiffre d’affaires mondial dépassant 1 000 milliards de wons, ou plus d’un million d’utilisateurs locaux) devront désigner un représentant local légalement responsable sur place. Cette exigence vise à éviter que des multinationales échappent aux régulations nationales en restant hors de portée juridique. En pratique, seules Google et OpenAI remplissent actuellement ces critères en Corée, ce qui illustre le ciblage de la loi vers les plateformes les plus puissantes.

Enfin, le législateur sud-coréen anticipe l’émergence d’une « IA de haute performance » (dite frontier AI), notion qui renvoie aux modèles d’IA les plus avancés à venir. Plutôt que de classer les IA uniquement par secteurs d’usage à risque (comme le fait l’UE), la Corée du Sud a choisi de définir cette catégorie par des seuils techniques – par exemple un volume cumulatif de calcul pour l’entraînement dépassant un certain niveau. Cette approche prospective permet d’encadrer les futures IA extrêmement puissantes avant même qu’elles n’apparaissent sur le marché. D’ailleurs, aucun modèle actuel ne franchit encore ces seuils selon Séoul. En fixant la barre très haut pour la régulation des IA de pointe, le gouvernement envoie un double signal : il se tient prêt à contrôler les « super IA » de demain, tout en évitant de freiner les modèles d’aujourd’hui tant qu’ils restent en deçà de ces critères.


Start-up locales en alerte face aux nouvelles contraintes

Malgré le temps de préparation laissé (la loi a été promulguée un an avant son entrée en vigueur effective en 2026), la communauté tech sud-coréenne accueille froidement l’arrivée de cette régulation inédite. En particulier, de nombreuses start-up spécialisées en IA tirent la sonnette d’alarme. « Pourquoi faut-il que ce soit nous qui soyons les premiers à faire ça ? » s’insurgent certains entrepreneurs, dénonçant une initiative prématurée. Un sondage mené par l’association Startup Alliance locale révèle que seule une start-up IA sur 50 se sent prête en termes de conformité, et qu’environ la moitié admettent ne pas bien comprendre les nouvelles obligations légales. Beaucoup déplorent le flou du texte, qui les pousserait par prudence à limiter ou ralentir certains développements innovants de peur d’enfreindre des règles encore mal définies.

Le risque d’entraver l’innovation avant même qu’elle n’ait pu éclore est la crainte majeure exprimée par ces jeunes pousses. Les obligations de transparence, de contrôle humain ou de responsabilité élargie pourraient représenter un fardeau administratif et financier disproportionné pour de petites structures en phase d’expérimentation. « Il y a un peu de ressentiment – pourquoi devons-nous être les premiers à faire cela ? » confie Lim Jung-wook, co-directeur de la Startup Alliance. Ce dernier craint que le langage vague de la loi n’incite les entrepreneurs à adopter des stratégies de développement excessivement prudentes, bridant la créativité et la compétitivité des solutions IA sud-coréennes face à des concurrents étrangers évoluant, eux, dans un environnement réglementaire plus souple.


Une période de grâce d'un an : la Corée du Sud veut mettre l'accent sur la pédagogie et la concertation

Les pouvoirs publics, conscients de ces réticences, cherchent à apaiser les craintes du secteur tout en affirmant la nécessité d’agir. D’emblée, le président (et ancien gouverneur) Lee Jae-myung – fervent promoteur du projet – a exprimé sa compréhension des difficultés soulevées par les start-up. Il a appelé les décideurs à soutenir au maximum le potentiel de l’industrie nationale, tout en « gérant de manière préventive les effets secondaires anticipés » de l’IA. Autrement dit, pas question de renoncer à encadrer les dérives possibles de l’IA, mais l’État promet d’accompagner les acteurs économiques pour que ces nouvelles règles ne cassent pas la dynamique du secteur.

Dans cet esprit, le ministère des Sciences et des TIC a mis en place un guichet d’assistance dédié (« AI Act Support Desk ») chargé d’aider les entreprises à évaluer leur statut réglementaire et à se mettre en conformité. Surtout, l’entrée en vigueur de la loi s’accompagne d’une période de grâce d’au moins un an : jusqu’en 2027, aucune amende administrative ne sera prononcée, le temps pour les entreprises de s’adapter. Durant cette phase transitoire, l’accent sera mis sur la pédagogie et la concertation plutôt que sur la répression : le gouvernement offre des consultations, élabore des guidelines et pourra même prolonger le moratoire si l’état de l’industrie (en Corée ou à l’international) le justifie.

Lorsque les contrôles débuteront, l’approche se veut de toute façon graduée et « pro-compliance ». Aucune infraction ne pourra mener à des poursuites pénales ; la loi privilégie des mises en demeure correctives en cas de manquement, et ne prévoit des amendes qu’en dernier recours. Le plafond de ces sanctions financières est fixé à 30 millions de wons (environ 20 000 €) – un montant relativement modéré comparé aux amendes colossales (jusqu’à 6% du chiffre d’affaires mondial) envisagées par l’UE dans son propre projet de régulation. Cette stratégie indulgente vise à ne pas étouffer l’essor de l’IA locale : « Nous privilégions l’adhésion volontaire plutôt que la punition », martèlent en substance les autorités. De plus, les obligations de transparence imposées aux systèmes IA en Corée restent circonscrites aux usages potentiellement trompeurs, et excluent explicitement la recherche ou l’usage privé. Là où l’Europe compte imposer des règles larges sur l’IA générative, Séoul assume une application plus ciblée, misant sur le bon sens des acteurs et la coopération pour faire progresser une IA digne de confiance.

Parallèlement, la loi s’accompagne d’une véritable feuille de route industrielle. Un Conseil présidentiel de stratégie nationale en matière d’IA est créé pour piloter les grandes orientations, et un Institut de la sécurité de l’IA verra le jour afin d’évaluer les systèmes et veiller au respect des critères de fiabilité. Le texte prévoit également de nombreux dispositifs de soutien à l’innovation : investissements dans la R&D, amélioration des infrastructures de données, programmes de formation des experts, aide à l’internationalisation des entreprises, etc.. Enfin, pour assurer un suivi régulier, le ministre des Sciences devra présenter tous les trois ans un plan de promotion du secteur de l’IA, véritable blueprint mis à jour périodiquement pour conjuguer développement économique et maîtrise des risques sur le long terme. Cette vision holistique – à la fois régulation et stimulation – reflète la délicate gymnastique du gouvernement sud-coréen pour concilier compétitivité technologique et exigences éthiques.

[CENTER][CENTER][...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !