合集-NLP

摘要:【大语言模型基础】Transformer模型Torch代码详解和训练实战一、Transformer概述 Transformer是由谷歌在17年提出并应用于神经机器翻译的seq2seq模型,其结构完全通过自注意力机制完成对源语言序列和目标语言序列的全局依赖建模。 Transformer由编码器和解码器构成。下图展示了它的结构,其左侧和右侧分别对应着编码器(Encoder) 阅读全文
posted @ 2023-10-24 23:53 LeonYi 阅读(2163) 评论(0) 推荐(3) 编辑
摘要:一、Transformer Transformer最开始用于机器翻译任务,其架构是seq2seq的编码器解码器架构。其核心是自注意力机制: 每个输入都可以看到全局信息,从而缓解RNN的长期依赖问题。 输入: (待学习的)输入词嵌入 + 位置编码(相对位置) 编码器结构: 6层编码器: 一层编码器 = 阅读全文
posted @ 2023-04-15 22:51 LeonYi 阅读(1466) 评论(0) 推荐(1) 编辑
摘要:基于 HuggingFace的Transformer库,在Colab或Kaggle进行预训练。 本教程提供:英文数据集wikitext-2和代码数据集的预训练。 注:可以自行上传数据集进行训练 目的:跑通自回归语言模型的预训练流程 一、准备 1.1 安装依赖 !pip install -U data 阅读全文
posted @ 2024-03-13 22:21 LeonYi 阅读(762) 评论(0) 推荐(0) 编辑
摘要:基于 HuggingFace的Transformer库,在Colab或Kaggle进行预训练。 鉴于算力限制,选用了较小的英文数据集wikitext-2 目的:跑通Mask语言模型的预训练流程 一、准备 1.1 安装依赖 !pip3 install --upgrade pip !pip instal 阅读全文
posted @ 2024-03-13 22:25 LeonYi 阅读(790) 评论(0) 推荐(0) 编辑
摘要:【LLM训练系列】NanoGPT源码详解和中文GPT训练实践本文是【训练LLM系列】的第一篇,主要重点介绍NanoGPT代码以及中文、英文预训练实践。最新版参见我的知乎:https://zhuanlan.zhihu.com/p/716442447 除跑通原始NanoGPT代码之外,分别使用了《红楼梦》、四大名著和几十本热门网络小说,进行了字符级、自行训练to 阅读全文
posted @ 2024-08-25 23:28 LeonYi 阅读(1049) 评论(0) 推荐(0) 编辑
摘要:大模型高效微调详解-从Adpter、PrefixTuning到LoRA最新版本,详见我的知乎文章:https://zhuanlan.zhihu.com/p/696057719 一、背景 目前NLP主流范式是在大量通用数据上进行预训练语言模型训练,然后再针对特定下游任务进行微调,达到领域适应(迁移学习)的目的。 指令微调是预训练语言模型微调的主流范式 其目的是尽量让下游 阅读全文
posted @ 2024-05-06 23:40 LeonYi 阅读(3662) 评论(0) 推荐(1) 编辑
摘要:大模型高效微调-LoRA原理详解和训练过程深入分析博客首发于我的知乎,详见:https://zhuanlan.zhihu.com/p/702629428 一、LoRA原理 LoRA(Low-Rank Adaptation of LLMs),即LLMs的低秩适应,是参数高效微调最常用的方法。 LoRA的本质就是用更少的训练参数来近似LLM全参数微调所 阅读全文
posted @ 2024-06-11 21:50 LeonYi 阅读(12998) 评论(1) 推荐(4) 编辑
摘要:一、前言 本文主要是在复现和实践Phi2-mini-Chinese后,简要分析下Phi2-mini-Chinese这个项目,做一个学习实战总结。 原文发布于知乎:https://zhuanlan.zhihu.com/p/718307193,转载请注明出数。 Phi2-mini-Chinese简介 P 阅读全文
posted @ 2024-09-09 23:52 LeonYi 阅读(904) 评论(0) 推荐(1) 编辑

点击右上角即可分享
微信分享提示