会员
T恤
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
CocoML
博客园
首页
新随笔
联系
订阅
管理
随笔 - 63
文章 - 0
评论 - 4
阅读 -
64815
我的标签
排序:
自定义
|
博文数⬇
|
标签名
深度学习
(19)
个人思考
(4)
Linux
(2)
大模型训练
(1)
工具配置
(9)
Git
(4)
CUDA
(2)
Java
(1)
C++
(9)
编译原理
(3)
面试题
(1)
Docker
(1)
算法
(7)
编程语言
(3)
自然语言处理
(1)
CMake
(1)
数据结构
(6)
论文研读
(2)
机器学习
(1)
AI编译器
(6)
意识成长
(2)
数学
(1)
设计模式
(4)
性能优化
(2)
抽象语法树
(1)
公告
昵称:
Aurelius84
园龄:
5年
粉丝:
22
关注:
0
+加关注
<
2025年4月
>
日
一
二
三
四
五
六
30
31
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
1
2
3
4
5
6
7
8
9
10
搜索
常用链接
我的随笔
我的评论
我的参与
最新评论
我的标签
最新随笔
1.Post Pretraing 技术解析
2.研发工程师的「第一性原理」思维
3.Meta Llama3 论文研读
4.《抽象代数》系列之群论入门
5.训练框架技术序列一:Megtron-LLM架构源码
6.Paddle2ONNX 架构设计
7.分布式混合并行训练关键技术解读
8.大模型如何提升训练效率
9.深度学习框架火焰图pprof和CUDA Nsys配置指南
10.【源码研读】MLIR Dialect 分层设计
我的标签
深度学习
(19)
C++
(9)
工具配置
(9)
算法
(7)
AI编译器
(6)
数据结构
(6)
Git
(4)
设计模式
(4)
个人思考
(4)
编译原理
(3)
更多
积分与排名
积分 - 55448
排名 - 30621
随笔分类
(52)
编程语言(7)
基础工具(13)
其他(6)
深度学习(19)
数据结构和算法(7)
随笔档案
(63)
2024年9月(5)
2024年7月(3)
2024年5月(1)
2023年8月(2)
2023年6月(2)
2023年5月(9)
2022年9月(3)
2021年4月(7)
2020年12月(3)
2020年9月(3)
2020年5月(2)
2020年4月(23)
阅读排行榜
1. 详解深度学习中“注意力机制”(6104)
2. 源码研习 — TVM中的IR设计与技术实现(5899)
3. 如何可视化深度学习网络中Attention层(5040)
4. 大模型如何提升训练效率(3572)
5. NVCC编译选项含义解析(3491)
评论排行榜
1. 训练框架技术序列一:Megtron-LLM架构源码(1)
2. 【源码研读】MLIR Dialect 分层设计(1)
3. GNU的make命令、makefile编写(1)
4. 如何可视化深度学习网络中Attention层(1)
推荐排行榜
1. 详解深度学习中“注意力机制”(2)
2. 【源码研读】MLIR Dialect 分层设计(1)
3. 工作中如何做好技术积累(1)
4. 飞桨Paddle动转静@to_static技术设计(1)
5. AI 编译器CINN中的OpLowering优化Pass(1)
最新评论
1. Re:训练框架技术序列一:Megtron-LLM架构源码
第一张图的内容和文字对不上啊,咋回事?图例没看到module partition之类的东西啊? megatron/core/ distributed/: 包含分布式训练的核心代码,支持梯度累加、通信优...
--liuyijiang1994
2. Re:【源码研读】MLIR Dialect 分层设计
你好,文章写得很棒。 有个问题想请教一下,对于 3.2 小节不同 Dialect 的转换有没有具体的例子,我自己试着用 mlir-opt 支持的 conversion 似乎还是不太对。 我们在编译得到...
--qzylalala
3. Re:如何可视化深度学习网络中Attention层
博主有没有keras版本的
--APengs
4. Re:GNU的make命令、makefile编写
makefile挺好的,当然现在流行的cmake也要学。
--lingr7
点击右上角即可分享