会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
deephub
overfit深度学习
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
40
41
42
43
44
45
46
47
48
···
151
下一页
2024年12月12日
使用PaliGemma2构建多模态目标检测系统:从架构设计到性能优化的技术实践指南
摘要: 目标检测技术作为计算机视觉领域的核心组件,在自动驾驶系统、智能监控、零售分析以及增强现实等应用中发挥着关键作用。本文将详细介绍PaliGemma2模型的微调流程,该模型通过整合SigLIP-So400m视觉编码器与Gemma 2系列的高级语言模型,专门针对目标检测任务进行了优化设计。 本文适用于机器
阅读全文
posted @ 2024-12-12 21:52 deephub
阅读(70)
评论(0)
推荐(0)
2024年12月11日
时间序列预测的不确定性区间估计:基于EnbPI的方法与应用研究
摘要: 在现代预测分析领域,准确评估预测结果的不确定性已成为一个关键挑战。预测的不确定性量化不仅能够提供更可靠的决策支持,还能深入揭示模型的预测能力边界。本文聚焦于时间序列预测中的不确定性量化问题,重点探讨基于一致性预测理论的集成批量预测区间(Ensemble Batch Prediction Interv
阅读全文
posted @ 2024-12-11 13:03 deephub
阅读(89)
评论(0)
推荐(0)
2024年12月10日
基于Huffman树的层次化Softmax:面向大规模神经网络的高效概率计算方法
摘要: 理论基础 算法本质与背景 层次化(Hierarchial)Softmax算法是在深度学习领域中解决大规模词嵌入训练效率问题的重要突破。该算法通过引入Huffman树结构,有效地将传统Softmax的计算复杂度从线性降至对数级别,从而在处理大规模词汇表时表现出显著的优势。 在传统的神经网络词嵌入模型中
阅读全文
posted @ 2024-12-10 09:36 deephub
阅读(51)
评论(0)
推荐(0)
2024年12月9日
Beta分布与汤普森采样:智能决策系统概率采样的理论基础
摘要: 在现代技术领域算法决策优化已成为核心竞争力。Meta通过广告位置优化提升点击率,Netflix利用缩略图优化提升用户参与度,亚马逊依靠产品推荐系统提升销售额——这些优化的背后都采用了基于Beta分布的汤普森采样算法。 在各类决策系统中,探索与利用的平衡是一个根本性挑战。例如推荐系统是继续使用已验证有
阅读全文
posted @ 2024-12-09 10:03 deephub
阅读(66)
评论(0)
推荐(0)
2024年12月8日
从方向导数到梯度:深度学习中的关键数学概念详解
摘要: 方向导数作为标量量,表征了函数在特定方向上的变化率。其数学表示为 ∇ᵤf(x) 或 Dᵤf(x)。 对于标量函数 f(x): Rⁿ → R,其梯度由函数的偏导数构成向量场。梯度向量指向函数值增长最快的方向,其模长等于该方向的方向导数。 方向导数的计算可通过两种方法实现:其一是引入函数 g(s) =
阅读全文
posted @ 2024-12-08 09:34 deephub
阅读(109)
评论(0)
推荐(0)
2024年12月7日
ORCA:基于持续批处理的LLM推理性能优化技术详解
摘要: 大语言模型(LLMs)推理过程中的批处理优化面临显著挑战,这主要源于其推理过程的迭代特性。核心问题在于批处理中的各个请求完成时间存在差异,这导致资源释放和新请求整合的复杂性显著提高,特别是在处理不同完成阶段的请求时。当批处理中序列的生成长度差异较大时,GPU资源利用率往往不够理想。如下图所示,序列1
阅读全文
posted @ 2024-12-07 09:55 deephub
阅读(211)
评论(0)
推荐(0)
2024年12月6日
深入解析图神经网络:Graph Transformer的算法基础与工程实践
摘要: Graph Transformer是一种将Transformer架构应用于图结构数据的特殊神经网络模型。该模型通过融合图神经网络(GNNs)的基本原理与Transformer的自注意力机制,实现了对图中节点间关系信息的处理与长程依赖关系的有效捕获。 Graph Transformer的技术优势 在处
阅读全文
posted @ 2024-12-06 21:29 deephub
阅读(184)
评论(0)
推荐(0)
2024年12月5日
Hymba: 结合注意力头和SSM头的创新型语言模型方案
摘要: 近年来,大语言模型(LLM)在各个领域取得了显著成效。但现有的Transformer架构存在计算复杂度高、内存消耗大等问题。而状态空间模型(SSM)如Mamba虽然具有常数复杂度和优化的硬件性能,但在记忆回溯任务上表现较弱。针对这一问题,NVIDIA提出了Hymba架构,通过在同一层中结合注意力头和
阅读全文
posted @ 2024-12-05 09:46 deephub
阅读(39)
评论(0)
推荐(0)
2024年12月4日
分布式机器学习系统:设计原理、优化策略与实践经验
摘要: 人工智能领域正在经历一场深刻的变革。随着深度学习模型的规模呈指数级增长,我们正面临着前所未有的计算挑战。当前最先进的语言模型动辄包含数千亿个参数,这种规模的模型训练已经远远超出了单机系统的处理能力。在这个背景下,分布式机器学习系统已经成为支撑现代人工智能发展的关键基础设施。 分布式机器学习的演进 在
阅读全文
posted @ 2024-12-04 09:43 deephub
阅读(105)
评论(0)
推荐(0)
2024年12月3日
Transformer模型变长序列优化:解析PyTorch上的FlashAttention2与xFormers
摘要: 随着生成式AI(genAI)模型在应用范围和模型规模方面的持续扩展,其训练和部署所需的计算资源及相关成本也呈现显著增长趋势,模型优化对于提升运行时性能和降低运营成本变得尤为关键。作为现代genAI系统核心组件的Transformer架构及其注意力机制,由于其计算密集型的特性,成为优化的重点对象。 在
阅读全文
posted @ 2024-12-03 09:52 deephub
阅读(144)
评论(0)
推荐(0)
上一页
1
···
40
41
42
43
44
45
46
47
48
···
151
下一页
公告