摘要:
🥥 Table of Content 00 - Overview 01 - Tokenization 02 - Position Encoding 03 - Word Embedding 04 - Transformer Block(Attention + FFN) 05 - Model Head 阅读全文
摘要:
1 RAG基础知识 1.1 为什么要使用RAG 1.2 流程 1.3 技术栈 项目 作用 技术栈推荐 (考虑数据安全) 技术栈推荐 (不考虑数据安全) 知识管理 1. 完成数据工程2. 完成知识增、删、改等 1. PDF文件解析:目标检测模型(yolox) 和 OCR模型2. 开发框架:LangCh 阅读全文
摘要:
01 - Overview & Environments Step 1: Create a environment conda create -n transformers python==3.9.16 -y Step 2: Activate environment conda activate t 阅读全文
摘要:
1 Tensors 1.1 Create 1.自定义张量 最左边有几个括号,就是几维向量。 # 一维向量 X1 = torch.tensor([0.0, 1.0, 2.0]) # 二维向量 X2 = torch.tensor([[0., 1., 2.], [3., 4., 5.], [6., 7., 阅读全文
摘要:
🥥 Table of Content I. Probability II. Calculus 🥑 Get Started! I. Probability 01 - Conditional Probability & Joint Probaility 02 - Generative Model N 阅读全文
摘要:
1 RNNs 1.1 RNN(Recurrent Neural Netwrok) Resource 1: 用纸笔训练循环神经网络RNN Figure 1: RNN cell 1.2 Bi-RNN(Bidirectional Recurrent Neural Netwrok) 2 LSTMs 2.1 阅读全文
摘要:
Xinference 阅读全文
摘要:
0 Introduction Code: modeling_llama.py - hugging face transformers | GitHub What's new Rotary Position Embedding (RoPE) RMS Norm Grouped Query Attenti 阅读全文
摘要:
🥥 Table of Content 00 - Overview <1> Downstream Task 01 - Input Data Preprocessing <1> Tokenization & Dataset & DataLoader 03 - Fine Tune & Adapter < 阅读全文
摘要:
🥥 Table of Content 00 - Overview 01 - Input Data Preprocessing <1> Tokenization & Dataset & DataLoader <2> Postional Encoding <3> Pad Mask <4> Subseq 阅读全文