
Llama.ttf est un fichier de police qui est également un grand modèle de langage et un moteur d'inférence complet pour le modèle Llama. Llama.ttf fonctionne entièrement localement, offrant une solution unique et pratique pour l'exécution du LLM dans n'importe quelle application (éditeur de texte, client de messagerie, etc.) basée sur HarfBuzz et compatible avec Wasm.
Un grand modèle de langage (LLM) est un modèle informatique qui se distingue par sa capacité à générer du langage à des fins générales et à réaliser d'autres tâches de traitement du langage naturel, telles que la classification. Basés sur des modèles de langage, les LLM acquièrent ces capacités en apprenant des relations statistiques à partir de grandes quantités de texte au cours d'un processus d'apprentissage auto-supervisé et semi-supervisé à forte intensité de calcul. Les LLM peuvent être utilisés pour la génération de textes, une forme d'IA générative, en prenant un texte en entrée et en prédisant de manière répétée le prochain mot ou token. Les LLM sont en réalité des réseaux neuronaux artificiels qui utilisent l'architecture de transformateur, inventée en 2017. Les LLM les plus grands et les plus performants, à partir de juin 2024, sont construits avec une architecture basée sur un transformateur décodeur uniquement, ce qui permet un traitement et une génération efficaces de données textuelles à grande échelle.
Dans la composition au métal pour l'impression et la typographie, une police de caractères est une taille, un poids et un style particuliers d'un caractère. Chaque police est un ensemble de caractères appariés, avec une pièce (une "sorte"

Comment ?
Le moteur de mise en forme des polices HarfBuzz, utilisé dans des applications telles que Firefox et Chrome, est accompagné d'un outil de mise en forme Wasm qui permet d'utiliser un code arbitraire pour "mettre en forme" le texte.
En particulier, ce code "arbitraire" pourrait en principe être un moteur d'inférence LLM complet avec des paramètres entraînés intégrés, s'appuyant sur le traitement d'un texte contenant des symboles magiques pour de fausses "ligatures" afin d'initialiser le LLM et de l'utiliser pour générer du texte.
Il pourrait aussi en principe être un moteur d'inférence LLM complet (Llama dans notre cas, d'où le nom) sauf qu'au lieu de l'être seulement en principe, c'est ce qu'il est réellement.
En fin de compte, cela signifie que vous pouvez simplement utiliser la police pour exécuter le LLM et, par exemple, obtenir la génération de texte dans n'importe quelle application basée sur HarfBuzz et compatible avec Wasm ; votre éditeur de texte/client de messagerie/quoi que ce soit d'autre sans avoir à attendre que le vendeur inclue les fonctionnalités de type "Copilot" que tout le monde s'empresse d'implémenter ces jours-ci. Et tout s'exécute entièrement localement. Alors peut-être que ce stupide hack est en fait une idée d'un milliard de dollars ?
Cela signifie également que vous pouvez utiliser votre police pour discuter avec votre police.
Utilisation
Téléchargez simplement llama.ttf (60 MB de téléchargement, puisqu'il est basé sur le modèle de 15M de paramètres basé sur TinyStories montré ci-dessus) et utilisez-le comme vous le feriez avec n'importe quelle autre police.
Utilisez-la là où HarfBuzz est utilisé et construit avec le support Wasm. La manière la plus simple d'expérimenter est probablement de compiler HarfBuzz avec -Dwasm=enabled et de compiler wasm-micro-runtime avec -DWAMR_BUILD_REF_TYPES=1, puis d'ajouter les bibliothèques partagées résultantes, libharfbuzz.so.0.60811.0 et libiwasm.so à la variable d'environnement LD_PRELOAD avant d'exécuter une application basée sur HarfBuzz telle que gedit ou GIMP ; aucune recompilation des applications n'est nécessaire.
Télécharger llama.ttf
Source : Llama.ttf
Et vous ?


Voir aussi :



Vous avez lu gratuitement 1 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.