IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Redox OS bannit les LLMs, Debian tergiverse : l'open source n'a pas de réponse unifiée à la déferlante du code automatisé.
Le code écrit par une IA doit-il avoir sa place dans les logiciels libres ?

Le , par Stéphane le calme

52PARTAGES

8  0 
La question n'est plus théorique. Alors que les LLMs inondent les forges logicielles de contributions automatisées, les projets libres sont contraints de définir leur politique, souvent dans l'urgence et la division. Redox OS a tranché avec intransigeance, Debian a préféré esquiver. Deux réponses opposées à une même crise qui interroge l'identité même du logiciel libre.

En mars 2026, le projet Redox OS, système d'exploitation expérimental écrit en Rust, fondé sur une architecture microkernel, a mis à jour son fichier CONTRIBUTING.md avec une formulation sans ambiguïté : le projet n'accepte aucune contribution générée par des LLMs. La politique n'est pas ouverte à discussion. Tout contenu clairement labellisé comme généré par LLM (issues, merge requests, descriptions incluses) sera immédiatement fermé. Toute tentative de contournement entraînera un bannissement du projet.

La brutalité du ton n'est pas fortuite. Elle signale une posture défensive face à ce que les mainteneurs perçoivent comme une menace existentielle à la qualité et à l'intégrité du code. Redox, projet ambitieux qui vise à proposer une alternative aux noyaux monolithiques comme Linux, est écrit en Rust, un langage relativement bien représenté dans les données d'entraînement des grands modèles. Le risque de contamination par du code LLM n'est donc pas hypothétique.

La décision a instantanément enflammé Hacker News. Pour plusieurs commentateurs, l'enjeu réel n'est pas tant l'opinion que l'on a de l'IA, mais le fardeau croissant qui pèse sur les mainteneurs de projets open source. Par le passé, le code lui-même constituait une forme de preuve d'effort : soumettre une pull request exigeait un investissement minimum, ce qui permettait d'écarter d'un coup d'œil les contributions de faible qualité. Ce n'est plus le cas : les LLMs peuvent générer des PRs qui paraissent superficiellement correctes, sans que l'on puisse le détecter sans une revue approfondie.

Redox n'est pas seul à adopter cette ligne dure. Le projet Zig a mis en place une politique similaire d'interdiction stricte des LLMs et de l'IA. Ces deux projets systems, soucieux de la rigueur formelle du code bas niveau, partagent une même conviction : la qualité ne se délègue pas à une machine stochastique.


L'insoluble problème de l'applicabilité

La politique de Redox soulève immédiatement une objection pratique : comment l'appliquer ? La formulation même de la règle, qui vise le contenu « clairement labellisé » comme généré par LLM, revient implicitement à admettre qu'on ne peut pas empêcher les soumissions LLM, on interdit simplement à quiconque de les signaler explicitement comme telles. Le paradoxe est vertigineux : la politique punit la transparence.

Les discussions sur Hacker News ont mis en lumière les limites pratiques de l'approche. Un contributeur résume la situation avec une lucidité grinçante : si quelqu'un soumet du code LLM de qualité, que le mainteneur ne peut distinguer d'une contribution humaine, et que le contributeur est prêt à en expliquer le fonctionnement, la règle n'a aucun effet. À l'inverse, elle pénalise les utilisateurs honnêtes qui déclarent leur usage. Pour certains, le « don't ask, don't tell » constitue la seule position raisonnable : si personne ne peut dire que le code vient d'un LLM et que le contributeur en revendique la paternité, c'est une affaire de conscience personnelle.

D'autres voix, moins cyniques, voient dans cette interdiction un filtre pragmatique plutôt qu'une barrière étanche. Elle agirait comme un premier filtre pour éliminer les PRs les moins sérieuses, en attendant que les modèles économiques de la contribution open source s'adaptent, notamment via l'émergence de politiques de rejet par défaut et de systèmes de validation préalable des contributeurs

La question du droit d'auteur ajoute une couche de complexité. Si les outputs de LLMs sont considérés comme des œuvres dérivées des données d'entraînement, accepter du code LLM pourrait exposer un projet à des violations de licence, y compris de la GPL. Pour certains, il vaut mieux interdire certaines contributions maintenant et assouplir la position plus tard, quand la situation juridique sera clarifiée.

Debian : l'art de ne pas décider

À l'autre bout du spectre, Debian, l'une des distributions Linux les plus influentes, dont la gouvernance repose sur un processus de vote formalisé appelé General Resolution (GR), a traversé en février-mars 2026 un débat houleux qui a accouché d'une souris.

C'est Lucas Nussbaum qui a ouvert les hostilités en proposant une résolution générale encadrant les contributions IA. Sa proposition aurait autorisé les contributions générées en tout ou partie par des LLMs, sous plusieurs conditions : déclaration explicite si une part...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 12/03/2026 à 1:15
Citation Envoyé par Stéphane le calme Voir le message
Sur Hacker News, un commentateur a formulé ce que beaucoup pensent tout bas : nous nous dirigeons vers une situation où les mainteneurs utilisent eux-mêmes des LLMs parce qu'ils sont réellement utiles dans de nombreux cas, tout en les interdisant aux contributeurs, faute de pouvoir évaluer la qualité du pilotage que le contributeur en a fait. L'asymétrie est troublante.
C'est une mise en perspective tout à fait pertinente. Je le vis moi-même aussi en dehors de la programmation : une voisine inonde le syndic de mails énormes générés par LLM, et cela fréquemment. Des mails qui semblent s'appuyer sur des éléments légaux, mais sans les citer, obligeant à tout vérifier phrase par phrase dans un mail de 5 à 10 paragraphes. De quoi se tirer une balle.

Si on a affaire à quelqu'un de compétent, le message a de la valeur, mais si c'est juste du généré par IA, obligé de tout vérifier pour filtrer les hallucinations et erreurs, ce qui réduit d'une part le bénéfice (il faut enlever les erreurs) et ce qui augmente drastiquement d'autre part l'inconvénient, bouffant l'intégralité du bénéfice restant à coup de migraines carabinées. Toute la différence se faisant sur le pilotage : soit la personne a bien fait le boulot et le message est à prendre, soit elle ne l'a pas fait et il est à jeter, mais dans tous les cas avec un coût à l'entrée le temps de tout vérifier, la taille du message décourageant dès les premières secondes.

De là j'en tire 2 possibles réactions de manière générale, contributions inclues :
- soit on détermine des critères sur le résultat, et on se fiche bien qu'un LLM ait été impliqué,
- soit on explicite le pilotage, par exemple en fournissant des commits séparés, la description du commit indiquant soit l'intention derrière la modif manuelle soit le prompt envoyé, le diff du commit montrant le résultat

Je pense que la 2e réaction fait sens aujourd'hui, de par ce contexte de doute, mais n'est pas tenable sur le long terme. Car cela implique d'analyser toute la chronologie du changement, ce que personne ne veut faire (que ceux qui voient une suite de commit WIP et ne se contentent pas de regarder la version finale lèvent la main ). Je pense qu'on peut lui trouver des avantages, du genre augmenter les chances de déceler des lacunes dans la réflexion menée, amenant une revue plus rigoureuse. Mais le surcoût systématique poussera naturellement les gens à établir des critères ne dépendant que du résultat pour gagner du temps.

Donc je ne serais pas étonné que la réaction 2 se mette rapidement en place le temps que la réaction 1 trouve les moyens de prendre le dessus.
4  0 
Avatar de RenarddeFeu
Membre averti https://www.developpez.com
Le 13/03/2026 à 10:04
L'interdiction des LLM me fait un peu penser à l'alcool pour les marins sur les bateaux. Si tu te fais prendre sur le fait, tu te fais débarquer au prochain port. Mais en pratique personne n'ira vérifier et tout le monde sait bien ce qu'il en est réellement.
1  0