IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Hands-On Large Language Models: Language Understanding and Generation
Un livre de Jay Alammar et Maarten Grootendorst

Le , par dourouc05

0PARTAGES

3  0 
Hands-On Large Language Models
Language Understanding and Generation

AI has acquired startling new language capabilities in just the past few years. Driven by rapid advances in deep learning, language AI systems are able to write and understand text better than ever before. This trend is enabling new features, products, and entire industries. Through this book's visually educational nature, readers will learn practical tools and concepts they need to use these capabilities today.

You'll understand how to use pretrained large language models for use cases like copywriting and summarization; create semantic search systems that go beyond keyword matching; and use existing libraries and pretrained models for text classification, search, and clusterings.

This book also helps you:

Understand the architecture of Transformer language models that excel at text generation and representation
Build advanced LLM pipelines to cluster text documents and explore the topics they cover
Build semantic search engines that go beyond keyword search, using methods like dense retrieval and rerankers
Explore how generative models can be used, from prompt engineering all the way to retrieval-augmented generation
Gain a deeper understanding of how to train LLMs and optimize them for specific applications using generative model fine-tuning, contrastive fine-tuning, and in-context learning

[Lire la suite]



Une erreur dans cette actualité ? Signalez-nous-la !