上一页 1 ··· 7 8 9 10 11 12 13 14 15 ··· 95 下一页
摘要: 在本篇文章我们将详细讨论推测解码,这是一种可以将LLM推理速度提高约2 - 3倍而不降低任何准确性的方法。我们还将会介绍推测解码代码实现,并看看它与原始transformer 实现相比到底能快多少。 推测解码是一种“先推测后验证” (Draft-then-Verify) 的解码算法,涉及并行运行两个 阅读全文
posted @ 2024-04-10 10:01 deephub 阅读(5) 评论(0) 推荐(0) 编辑
摘要: 本文将介绍大语言模型中使用的不同令牌遮蔽技术,并比较它们的优点,以及使用Pytorch实现以了解它们的底层工作原理。 令牌掩码Token Masking是一种广泛应用于语言模型分类变体和生成模型训练的策略。BERT语言模型首先使用,并被用于许多变体(RoBERTa, ALBERT, DeBERTa… 阅读全文
posted @ 2024-04-09 11:33 deephub 阅读(2) 评论(0) 推荐(0) 编辑
摘要: 如果你一直在关注大型语言模型的架构,你可能会在最新的模型和研究论文中看到“SwiGLU”这个词。SwiGLU可以说是在大语言模型中最常用到的激活函数,我们本篇文章就来对他进行详细的介绍。SwiGLU其实是2020年谷歌提出的激活函数,它结合了SWISH和GLU两者的特点。 我们一个一个来介绍: ht 阅读全文
posted @ 2024-04-08 10:09 deephub 阅读(92) 评论(0) 推荐(0) 编辑
摘要: 归一化层是深度神经网络体系结构中的关键,在训练过程中确保各层的输入分布一致,这对于高效和稳定的学习至关重要。归一化技术的选择(Batch, Layer, GroupNormalization)会显著影响训练动态和最终的模型性能。每种技术的相对优势并不总是明确的,随着网络体系结构、批处理大小和特定任务 阅读全文
posted @ 2024-04-07 09:58 deephub 阅读(24) 评论(0) 推荐(0) 编辑
摘要: 分组查询注意力 (Grouped Query Attention) 是一种在大型语言模型中的多查询注意力 (MQA) 和多头注意力 (MHA) 之间进行插值的方法,它的目标是在保持 MQA 速度的同时实现 MHA 的质量。 这篇文章中,我们将解释GQA的思想以及如何将其转化为代码。 GQA是在论文 阅读全文
posted @ 2024-04-03 10:12 deephub 阅读(164) 评论(0) 推荐(0) 编辑
摘要: 自 2017 年发表“ Attention Is All You Need ”论文以来,Transformer 架构一直是自然语言处理 (NLP) 领域的基石。它的设计多年来基本没有变化,随着旋转位置编码 (RoPE) 的引入,2022年标志着该领域的重大发展。 旋转位置嵌入是最先进的 NLP 位置 阅读全文
posted @ 2024-04-01 10:25 deephub 阅读(130) 评论(0) 推荐(0) 编辑
摘要: 这是3月26日新发的的论文,微软的研究人员简化的基于mamba的体系结构,并且将其同时应用在图像和时间序列中并且取得了良好的成绩。 语言模型的发展正在从大型语言模型(LLMs)向小型语言模型(SLMs)转变。llm和slm的核心都是transformers,它是llm和slm的构建模块。虽然tran 阅读全文
posted @ 2024-03-31 10:35 deephub 阅读(51) 评论(0) 推荐(0) 编辑
摘要: 大型语言模型(llm)已经变得越来越复杂,能够根据各种提示和问题生成人类质量的文本。但是他们的推理能力让仍然是个问题,与人类不同LLM经常在推理中涉及的隐含步骤中挣扎,这回导致输出可能在事实上不正确或缺乏逻辑。 考虑以下场景:正在阅读一个复杂的数学证明。虽然最终的答案可能很清楚,但关键在于理解初始条 阅读全文
posted @ 2024-03-30 19:40 deephub 阅读(14) 评论(0) 推荐(0) 编辑
摘要: 由于Mixtral的发布,专家混合(MoE)架构在最近几个月变得流行起来。虽然Mixtral和其他MoE架构是从头开始预训练的,但最近出现了另一种创建MoE的方法:Arcee的MergeKit库可以通过集成几个预训练模型来创建moe。这些人通常被称为frankenMoEs或MoErges,以区别于预 阅读全文
posted @ 2024-03-29 11:57 deephub 阅读(38) 评论(0) 推荐(0) 编辑
摘要: 2023年的大型语言模型领域经历了许多快速的发展和创新,发展出了更大的模型规模并且获得了更好的性能,那么我们普通用户是否可以定制我们需要的大型语言模型呢? 首先你需要有硬件的资源,对于硬件来说有2个路径可以选。高性能和低性能,这里的区别就是是功率,因为精度和消息长度直接与参数计数和GPU功率成比例。 阅读全文
posted @ 2024-03-28 11:21 deephub 阅读(14) 评论(0) 推荐(0) 编辑
上一页 1 ··· 7 8 9 10 11 12 13 14 15 ··· 95 下一页