摘要: 🥥 Table of Content 00 - Overview 01 - Tokenization 02 - Position Encoding 03 - Word Embedding 04 - Transformer Block(Attention + FFN) 05 - Model Head 阅读全文
posted @ 2024-03-25 14:51 ForHHeart 阅读(194) 评论(0) 推荐(0) 编辑
摘要: 1 RAG基础知识 1.1 为什么要使用RAG 1.2 流程 1.3 技术栈 项目 作用 技术栈推荐 (考虑数据安全) 技术栈推荐 (不考虑数据安全) 知识管理 1. 完成数据工程2. 完成知识增、删、改等 1. PDF文件解析:目标检测模型(yolox) 和 OCR模型2. 开发框架:LangCh 阅读全文
posted @ 2024-03-18 04:54 ForHHeart 阅读(22) 评论(0) 推荐(0) 编辑
摘要: 01 - Overview & Environments Step 1: Create a environment conda create -n transformers python==3.9.16 -y Step 2: Activate environment conda activate t 阅读全文
posted @ 2024-03-15 04:36 ForHHeart 阅读(46) 评论(0) 推荐(0) 编辑
摘要: 1 Tensors 1.1 Create 1.自定义张量 最左边有几个括号,就是几维向量。 # 一维向量 X1 = torch.tensor([0.0, 1.0, 2.0]) # 二维向量 X2 = torch.tensor([[0., 1., 2.], [3., 4., 5.], [6., 7., 阅读全文
posted @ 2024-03-01 14:15 ForHHeart 阅读(15) 评论(0) 推荐(0) 编辑
摘要: 🥥 Table of Content I. Probability II. Calculus 🥑 Get Started! I. Probability 01 - Conditional Probability & Joint Probaility 02 - Generative Model N 阅读全文
posted @ 2024-02-19 02:09 ForHHeart 阅读(7) 评论(0) 推荐(0) 编辑
摘要: 1 RNNs 1.1 RNN(Recurrent Neural Netwrok) Resource 1: 用纸笔训练循环神经网络RNN Figure 1: RNN cell 1.2 Bi-RNN(Bidirectional Recurrent Neural Netwrok) 2 LSTMs 2.1 阅读全文
posted @ 2024-01-26 00:23 ForHHeart 阅读(11) 评论(0) 推荐(0) 编辑
摘要: Xinference 阅读全文
posted @ 2024-01-26 00:22 ForHHeart 阅读(14) 评论(0) 推荐(0) 编辑
摘要: 0 Introduction Code: modeling_llama.py - hugging face transformers | GitHub What's new Rotary Position Embedding (RoPE) RMS Norm Grouped Query Attenti 阅读全文
posted @ 2024-01-14 09:42 ForHHeart 阅读(19) 评论(0) 推荐(0) 编辑
摘要: 🥥 Table of Content 00 - Overview <1> Downstream Task 01 - Input Data Preprocessing <1> Tokenization & Dataset & DataLoader 03 - Fine Tune & Adapter < 阅读全文
posted @ 2024-01-14 09:40 ForHHeart 阅读(15) 评论(0) 推荐(0) 编辑
摘要: 🥥 Table of Content 00 - Overview 01 - Input Data Preprocessing <1> Tokenization & Dataset & DataLoader <2> Postional Encoding <3> Pad Mask <4> Subseq 阅读全文
posted @ 2024-01-12 07:14 ForHHeart 阅读(29) 评论(0) 推荐(0) 编辑
点击右上角即可分享
微信分享提示