IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La Suisse lance son propre modèle d'IA formé sur des données publiques : Apertus rejoint la famille de modèles d'IA du Français Mistral
Dans une arène dominée par les modèles américains et chinois

Le , par Patrick Ruiz

10PARTAGES

14  0 
La Suisse lance son propre modèle d’IA formé sur des données publiques : Apertus rejoint la famille de modèles d’IA du Français Mistral
Dans l’arène dominée par les modèles américains et chinois

La Suisse vient de lever le voile sur Apertus, son premier modèle de langage multilingue entièrement open source. Ce dernier rejoint la famille de modèles d’IA du Français Mistral dans une arène marquée par la domination américaine et chinoise de l'IA. Apertus se veut être une alternative axée sur la confidentialité et conçue pour la transparence et le respect de la réglementation européenne en la matière. C’est un tournant clé dans la course mondiale à l’intelligence artificielle étant donné que la Suisse rejoint le mouvement des pays qui œuvrent pour assurer leur souveraineté en matière d’infrastructure IA.



Comment Apertus se positionne-t-il par rapport à l’existant ?

Apertus et les modèles de la famille Mistral sont tous des grands modèles de langage open source, mais ils divergent considérablement dans leurs approches techniques, réglementaires et linguistiques. Apertus se distingue principalement par son ouverture complète, sa documentation transparente et sa forte concentration sur la confidentialité et la réglementation, tandis que ceux de Mistral sont connus connu pour leurs options de déploiement modulaires et leur conception axée sur les performances pour les contextes d'entreprise.

Apertus offre une transparence totale : le processus de formation, les pondérations du modèle, l'architecture, les sources de données et les points de contrôle intermédiaires sont tous publics, permettant une reproductibilité complète et des audits indépendants de la conformité et de la qualité du modèle.

Mistral fournit des pondérations de modèles et une documentation ouvertes, mais ne publie généralement pas tous les détails concernant le corpus de formation, la gestion des droits d'auteur ou la reproductibilité étape par étape ; Mistral se concentre sur la flexibilité des développeurs et les ensembles d'outils modulaires, et non sur une transparence réglementaire approfondie.

Apertus a été conçu pour respecter la législation suisse sur la protection des données et la loi européenne sur l'IA, avec curation des données avec suppression des données personnelles et mécanismes de désinscription. Il s'agit du premier LLM à publier des résumés conformes des données de formation et de la politique de droits d'auteur, conformément aux nouvelles règles de l'UE. Spécifiquement filtré avant la formation, il respecte les obligations réglementaires et de confidentialité, réduisant ainsi les risques en n'incluant jamais de données problématiques.

Mistral pour sa part fournit des canaux de déploiement ouverts (locaux, cloud, API) pour les industries à forte exigence de conformité, mais son approche de la confidentialité et du droit d'auteur est moins explicite ; il ne publie pas le même niveau de données ou de documentation réglementaire qu'Apertus et se concentre davantage sur l'utilité technique et les contrôles d'entreprise à faible latence.

Apertus est entraîné sur 15 000 milliards de jetons dans plus de 1000 langues, dont 40 % des données sont dédiées à des langues autres que l'anglais, y compris des langues sous-représentées comme le suisse allemand et le romanche, démontrant ainsi une approche linguistique unique, tant au niveau mondial qu'européen.

Mistral prend en charge les tâches multilingues de manière compétitive, avec d'excellentes performances dans les langues européennes et mondiales grâce à ses modèles polyvalents et spécifiques à chaque secteur. Cependant, la composition détaillée de ses données linguistiques n'est pas aussi ouverte ; l'accent est mis sur les cas d'utilisation pratiques plutôt que sur la préservation linguistique.

Apertus est comparable au modèle Llama 3 2024 de Meta, d’après des rapports. Le modèle a été conçu pour respecter les lois de l'Union européenne sur le droit d'auteur et le code de bonnes pratiques volontaire en matière d'intelligence artificielle, que certaines entreprises d'IA basées aux USA ont déclaré avoir signé à contrecœur, affirmant que ces réglementations freineraient l'innovation et le déploiement de l'IA. Selon les développeurs, les données d'entraînement d'Apertus ont été restreintes aux sources publiques, tout en respectant les demandes de désactivation des robots d'exploration de l'IA sur certains sites web.


Apertus croule sous les railleries des utilisateurs comme Bing (animé par ChatGPT) à ses débuts

Lancé mardi matin, leur modèle de langage souverain Apertus a rapidement été testé par des internautes curieux de connaître ses capacités. Et le moins que l’on puisse dire, c’est que certains sont déçus, voire consternés par ce qu’ils ont sous les yeux. Le chatbot créé sur la base d’Apertus offre des résultats de qualité parfois discutable et commet de nombreuses erreurs.

« Désolé ce LLM est une honte… nous avons besoin d’un peu plus de rigueur surtout de la part de notre EPF… Ce LLM est le pire jamais testé lors de son lancement… les hallucinations sont fréquentes et sa dernière mise à jour date de mars 2024 et surtout pour la transparence il ne donne aucune indication sur son raisonnement… De telles choses ne sont plus possibles aujourd’hui », écrit ainsi Xavier Comtesse, président du groupe de réflexion Manufacture Thinking.


C’est le même tableau auquel l’on a eu droit suite à l’annonce de la disponibilité de nouvelles moutures de Bing et de Microsoft Edge animées par une mise à jour de ChatGPT. Les premiers retours d’expérience n’avaient pas été à la hauteur des attentes : Bing avait affiché 2,5 milliards de personnes en réponse à la question de savoir quelle est la population sur la planète Mars.

Selon une étude, les modèles d'intelligence artificielle vont toujours halluciner et il va falloir s'en accommoder surtout qu’un autre rapport fait état de ce que cette propension de l’intelligence artificielle à produire du contenu erroné va aller croissant avec sa sophistication. Le phénomène d’hallucination réduit ainsi considérablement la valeur de l’intelligence artificielle générative en tant que technologie.

Sources : Apertus, Linkedin

Et vous ?

Quelle appréciation faites-vous de la disponibilité de ce modèle d’intelligence artificielle dénommé Apertus ?
Quel crédit accordez-vous à la filière intelligence artificielle compte tenu du phénomène des hallucinations ? Partagez-vous les avis selon lesquels l’IA c’est de la poudre de Perlimpinpin ?

Voir aussi :

OpenAI est perplexe parce que ses nouveaux modèles o3 et o4-mini affichent des taux d'hallucination nettement plus élevés que les modèles précédents, ce qui réduit la précision et la fiabilité de ces modèles

Les outils d'IA de codage inventent des noms de paquets inexistants qui menacent la chaîne d'approvisionnement en logiciels : les attaquants publient des paquets malveillants avec ces noms sur npm ou PyPI

Les LLM IA auront toujours des hallucinations, et nous devons nous en accommoder, car les hallucinations découlent de la structure mathématique et logique fondamentale des LLM, selon une étude
Vous avez lu gratuitement 284 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 05/09/2025 à 13:18
1. Apertus sera éternellement moins efficace qu'une IA des GAFAM. Pourquoi? Tout simplement parce que les capacités d'une IA sont proportionnelles à la quantité de données que l'IA a enregistré... En se la jouant "chevalier blanc" (on utilise que des données respectant le droit d'auteur, etc.), Opertus a déjà perdu la course face à des IA sans foi ni loi qui copient la totalité des données à leur disposition sur le web sans respecter le droit d'auteur, ni les lois des différents pays.

2. Pour info le sieur Xavier Comtesse n'a pas la moindre compétence en IA... C'est avant tout un personnage médiatique qui aime faire parler de lui. Après des études scientifiques, il a passé son temps dans les dorures politiciennes suisses... Une fois évincé, il s'est reconverti en Monsieur "je sais tout de la science" en donnant son avis sur tout et n'importe quoi dans les médias suisses... Vu que l'IA est à la mode, il aurait été étonnant qu'il n'intervienne pas médiatiquement pour nous faire part de son avis dont tous le monde se fout à part lui... Il doit aimer relire ses interventions dans les média avec délectation.
1  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 05/09/2025 à 15:00
Une remarque: il y a "hallucination" et "hallucination" avec l'IA.

Tu peux avoir des réponses fausses par manque d'apprentissage, ce ne sont pas de vraies "hallucinations". Dans ce cas, la validité ou non des données apprises va avoir une influence sur l'efficacité de l'IA.

Les "hallucinations" des IA qui posent problème depuis le début de l'IA et qui n'a reçu aucune réponse des experts en IA quand au pourquoi de leur apparition, ni au comment pour les éviter sont des comportements erratiques de l'IA (elle va répondre correctement 9 fois et la dixième fois répondre n'importe quoi).

Ces "vraies" hallucinations ne sont pas dues à la qualité des données enseignées mais au fonctionnement interne de l'IA et là réside tout le problème de l'utilisation professionnelle de l'IA: Avec une IA qui fait n'importe quoi de temps en temps, on ne peut pas lui confier le contrôle d'un avion ou même le diagnostic autonome d'une maladie grave...

En l'état, l'IA ne peut donc pas répondre aux promesses de remplacer l'être humain dans ses tâches, l'IA ne peut qu'être tout au plus une aide à l'être humain à condition que l'IA n'empêche pas le développement de spécialistes aptes à détecter quand l'IA fait une connerie...

Et là, l'IA pose un autre problème qui est déjà bien présent aujourd'hui: Les jeunes ne sont plus motivés à se former...Exemple: Pourquoi s'emmerder pendant des années à apprendre une langue étrangère alors que l'IA fait des traductions? Pourquoi faire de longue étude de médecine? Au final, il n'y aura plus personne apte à corriger les erreur des IA.
1  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 05/09/2025 à 14:24
Anselme45

Citation Envoyé par Anselme45 Voir le message
1. Apertus sera éternellement moins efficace qu'une IA des GAFAM. Pourquoi? Tout simplement parce que les capacités d'une IA sont proportionnelles à la quantité de données que l'IA a enregistré... En se la jouant "chevalier blanc" (on utilise que des données respectant le droit d'auteur, etc.), Opertus a déjà perdu la course face à des IA sans foi ni loi qui copient la totalité des données à leur disposition sur le web sans respecter le droit d'auteur, ni les lois des différents pays.
Je ne suis pas certains, je pense au contraire qu'une IA entrainée pour un objectif précis, avec moins de données, mais des données "validée", sera plus "juste" dans ces réponses qu'une IAG qui se base sur des données non validées. Tout ce qui a été "pompé" sur le Net n'est pas forcément "juste". Pour ce qui est des "droits d'auteurs", soit on s'y attaque avec fermeté, et les IAG qui font du plagiat sont interdites (mais je n'y crois pas trop), soit elles auront tellement de "mauvaises entrées" qu'elle continueront encore longtemps a "Halluciner". De plus, vu les milliards engloutis, je pense que les "investisseurs" vont à un moment ou à un autre vouloir leur ROI, et là, qui va payer quoi à qui, ça risque d'être un joyeux B....L

Une fois la "hype" passée, il ne restera que des IA bien entrainées, avec des données validées, et qui donnent une réponses correcte. Mais il faudra pour cela pouvoir entrer le "bon prompt" (ce qui dépendras de la compétence des prompteurs), et avant de prendre la réponse pour "argent" comptant, cette réponse "devrait" (ce qui ne sera pas forcément le cas) être validée par une autre personne "compétente" dans le domaine, ce qui fait 2 personnes car comme dans dans tout on ne peux pas être juge et partie...

Citation Envoyé par Anselme45 Voir le message
2. Pour info le sieur Xavier Comtesse n'a pas la moindre compétence en IA... C'est avant tout un personnage médiatique qui aime faire parler de lui. Après des études scientifiques, il a passé son temps dans les dorures politiciennes suisses... Une fois évincé, il s'est reconverti en Monsieur "je sais tout de la science" en donnant son avis sur tout et n'importe quoi dans les médias suisses... Vu que l'IA est à la mode, il aurait été étonnant qu'il n'intervienne pas médiatiquement pour nous faire part de son avis dont tous le monde se fout à part lui... Il doit aimer relire ses interventions dans les média avec délectation.
C'est Monsieur Chevalet Suisse
0  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 05/09/2025 à 16:04
Je n'ai pas encore testé le modèle, j'attends qu'il soit dispo en GGUF et utilisable sous LM Studio. Par contre, tout est mauvais dans cette critique :
Citation Envoyé par Patrick Ruiz Voir le message
« Désolé ce LLM est une honte… nous avons besoin d’un peu plus de rigueur surtout de la part de notre EPF… Ce LLM est le pire jamais testé lors de son lancement… les hallucinations sont fréquentes et sa dernière mise à jour date de mars 2024 et surtout pour la transparence il ne donne aucune indication sur son raisonnement… De telles choses ne sont plus possibles aujourd’hui », écrit ainsi Xavier Comtesse, président du groupe de réflexion Manufacture Thinking.
Comme le rappelle l'article, les hallucinations sont normales et intrinsèques aux LLM. La qualité du modèle réside dans sa capacité à générer du texte plausible, pas correct. Attendre de lui qu'il génère des réponses correctes implique soit :
  • qu'il apprenne à raisonner sur la base des données utilisées pendant l'entraînement, sauf que ce n'est pas comme ça qu'un LLM se construit, il travaille au niveau de la forme, pas du fond
  • qu'il apprenne à reproduire du texte correcte qu'il a appris, ce qui implique (1) que le filtrage des données d'entraînement s'assure que seules des données correctes sont utilisées, ce qui n'est pas dans le cahier des charges (et revient à demander aux concepteurs de se tirer une balle), et (2) que le modèle soit sur-entraîné pour coller à ce qu'il a appris, alors que c'est justement ce qu'on veut éviter avec les réseaux de neurones, pour qu'il généralisent à des sujets qui ne font pas partie des données d'entraînement.


Ensuite, qu'il ne donne aucune indication sur son raisonnement, il parle très certainement du CoT (chain of thought), sauf que nul besoin de l'intégrer au modèle (et tous les modèles ne l'intègrent pas, comme il semble le croire). Il suffit d'intégrer à la requête la demande de dérouler le raisonnement pas à pas. Les modèles qui le font d'office ont été entraînés pour le faire d'office, mais ceux qui ne le sont pas sont tout autant capables de le faire dès lors qu'on le leur demande.

Enfin, le modèle vient de sortir, donc à voir comment il va évoluer.
0  0