Building Transformer Models with PyTorch 2.0
eBook - ePub

Building Transformer Models with PyTorch 2.0

NLP, computer vision, and speech processing with PyTorch and Hugging Face (English Edition)

Prem Timsina

Partager le livre
  1. English
  2. ePUB (adapté aux mobiles)
  3. Disponible sur iOS et Android
eBook - ePub

Building Transformer Models with PyTorch 2.0

NLP, computer vision, and speech processing with PyTorch and Hugging Face (English Edition)

Prem Timsina

DĂ©tails du livre
Table des matiĂšres
Citations

À propos de ce livre

Your key to transformer based NLP, vision, speech, and multimodalities

Key Features
? Transformer architecture for different modalities and multimodalities.
? Practical guidelines to build and fine-tune transformer models.
? Comprehensive code samples with detailed documentation.

Description
This book covers transformer architecture for various applications including NLP, computer vision, speech processing, and predictive modeling with tabular data. It is a valuable resource for anyone looking to harness the power of transformer architecture in their machine learning projects.The book provides a step-by-step guide to building transformer models from scratch and fine-tuning pre-trained open-source models. It explores foundational model architecture, including GPT, VIT, Whisper, TabTransformer, Stable Diffusion, and the core principles for solving various problems with transformers. The book also covers transfer learning, model training, and fine-tuning, and discusses how to utilize recent models from Hugging Face. Additionally, the book explores advanced topics such as model benchmarking, multimodal learning, reinforcement learning, and deploying and serving transformer models.In conclusion, this book offers a comprehensive and thorough guide to transformer models and their various applications.

What you will learn
? Understand the core architecture of various foundational models, including single and multimodalities.
? Step-by-step approach to developing transformer-based Machine Learning models.
? Utilize various open-source models to solve your business problems.
? Train and fine-tune various open-source models using PyTorch 2.0 and the Hugging Face ecosystem.
? Deploy and serve transformer models.
? Best practices and guidelines for building transformer-based models.

Who this book is for
This book caters to data scientists, Machine Learning engineers, developers, and software architects interested in the world of generative AI.

Table of Contents
1. Transformer Architecture
2. Hugging Face Ecosystem
3. Transformer Model in PyTorch
4. Transfer Learning with PyTorch and Hugging Face
5. Large Language Models: BERT, GPT-3, and BART
6. NLP Tasks with Transformers
7. CV Model Anatomy: ViT, DETR, and DeiT
8. Computer Vision Tasks with Transformers
9. Speech Processing Model Anatomy: Whisper, SpeechT5, and Wav2Vec
10. Speech Tasks with Transformers
11. Transformer Architecture for Tabular Data Processing
12. Transformers for Tabular Data Regression and Classification
13. Multimodal Transformers, Architectures and Applications
14. Explore Reinforcement Learning for Transformer
15. Model Export, Serving, and Deployment
16. Transformer Model Interpretability, and Experimental Visualization
17. PyTorch Models: Best Practices and Debugging

Foire aux questions

Comment puis-je résilier mon abonnement ?
Il vous suffit de vous rendre dans la section compte dans paramĂštres et de cliquer sur « RĂ©silier l’abonnement ». C’est aussi simple que cela ! Une fois que vous aurez rĂ©siliĂ© votre abonnement, il restera actif pour le reste de la pĂ©riode pour laquelle vous avez payĂ©. DĂ©couvrez-en plus ici.
Puis-je / comment puis-je télécharger des livres ?
Pour le moment, tous nos livres en format ePub adaptĂ©s aux mobiles peuvent ĂȘtre tĂ©lĂ©chargĂ©s via l’application. La plupart de nos PDF sont Ă©galement disponibles en tĂ©lĂ©chargement et les autres seront tĂ©lĂ©chargeables trĂšs prochainement. DĂ©couvrez-en plus ici.
Quelle est la différence entre les formules tarifaires ?
Les deux abonnements vous donnent un accĂšs complet Ă  la bibliothĂšque et Ă  toutes les fonctionnalitĂ©s de Perlego. Les seules diffĂ©rences sont les tarifs ainsi que la pĂ©riode d’abonnement : avec l’abonnement annuel, vous Ă©conomiserez environ 30 % par rapport Ă  12 mois d’abonnement mensuel.
Qu’est-ce que Perlego ?
Nous sommes un service d’abonnement Ă  des ouvrages universitaires en ligne, oĂč vous pouvez accĂ©der Ă  toute une bibliothĂšque pour un prix infĂ©rieur Ă  celui d’un seul livre par mois. Avec plus d’un million de livres sur plus de 1 000 sujets, nous avons ce qu’il vous faut ! DĂ©couvrez-en plus ici.
Prenez-vous en charge la synthÚse vocale ?
Recherchez le symbole Écouter sur votre prochain livre pour voir si vous pouvez l’écouter. L’outil Écouter lit le texte Ă  haute voix pour vous, en surlignant le passage qui est en cours de lecture. Vous pouvez le mettre sur pause, l’accĂ©lĂ©rer ou le ralentir. DĂ©couvrez-en plus ici.
Est-ce que Building Transformer Models with PyTorch 2.0 est un PDF/ePUB en ligne ?
Oui, vous pouvez accĂ©der Ă  Building Transformer Models with PyTorch 2.0 par Prem Timsina en format PDF et/ou ePUB ainsi qu’à d’autres livres populaires dans Ciencia de la computaciĂłn et Inteligencia artificial (IA) y semĂĄntica. Nous disposons de plus d’un million d’ouvrages Ă  dĂ©couvrir dans notre catalogue.

Informations

Table des matiĂšres