会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
CocoML
博客园
首页
新随笔
联系
订阅
管理
随笔 - 63
文章 - 0
评论 - 4
阅读 -
62147
2020年12月25日
浅析 TensorFlow Runtime 技术
摘要:
TensorFlow Runtime,简称 TFRT,它提供了统一的、可扩展的基础架构层,可以极致地发挥CPU多线程性能,支持全异步编程(无锁队列+异步化语义)。TFRT 可以减少开发、验证和部署企业级模型所需的时间。
阅读全文
posted @ 2020-12-25 20:08 Aurelius84
阅读(1841)
评论(0)
推荐(0)
编辑
公告
昵称:
Aurelius84
园龄:
4年10个月
粉丝:
22
关注:
0
+加关注
<
2025年3月
>
日
一
二
三
四
五
六
23
24
25
26
27
28
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
1
2
3
4
5
搜索
常用链接
我的随笔
我的评论
我的参与
最新评论
我的标签
最新随笔
1.Post Pretraing 技术解析
2.研发工程师的「第一性原理」思维
3.Meta Llama3 论文研读
4.《抽象代数》系列之群论入门
5.训练框架技术序列一:Megtron-LLM架构源码
6.Paddle2ONNX 架构设计
7.分布式混合并行训练关键技术解读
8.大模型如何提升训练效率
9.深度学习框架火焰图pprof和CUDA Nsys配置指南
10.【源码研读】MLIR Dialect 分层设计
我的标签
深度学习
(19)
C++
(9)
工具配置
(9)
算法
(7)
AI编译器
(6)
数据结构
(6)
Git
(4)
设计模式
(4)
个人思考
(4)
编译原理
(3)
更多
积分与排名
积分 - 53357
排名 - 31719
随笔分类
(52)
编程语言(7)
基础工具(13)
其他(6)
深度学习(19)
数据结构和算法(7)
随笔档案
(63)
2024年9月(5)
2024年7月(3)
2024年5月(1)
2023年8月(2)
2023年6月(2)
2023年5月(9)
2022年9月(3)
2021年4月(7)
2020年12月(3)
2020年9月(3)
2020年5月(2)
2020年4月(23)
阅读排行榜
1. 详解深度学习中“注意力机制”(6061)
2. 源码研习 — TVM中的IR设计与技术实现(5834)
3. 如何可视化深度学习网络中Attention层(5011)
4. NVCC编译选项含义解析(3455)
5. 机器学习新手项目之N-gram分词(3311)
评论排行榜
1. 训练框架技术序列一:Megtron-LLM架构源码(1)
2. 【源码研读】MLIR Dialect 分层设计(1)
3. GNU的make命令、makefile编写(1)
4. 如何可视化深度学习网络中Attention层(1)
推荐排行榜
1. 详解深度学习中“注意力机制”(2)
2. 【源码研读】MLIR Dialect 分层设计(1)
3. 工作中如何做好技术积累(1)
4. 飞桨Paddle动转静@to_static技术设计(1)
5. AI 编译器CINN中的OpLowering优化Pass(1)
最新评论
1. Re:训练框架技术序列一:Megtron-LLM架构源码
第一张图的内容和文字对不上啊,咋回事?图例没看到module partition之类的东西啊? megatron/core/ distributed/: 包含分布式训练的核心代码,支持梯度累加、通信优...
--liuyijiang1994
2. Re:【源码研读】MLIR Dialect 分层设计
你好,文章写得很棒。 有个问题想请教一下,对于 3.2 小节不同 Dialect 的转换有没有具体的例子,我自己试着用 mlir-opt 支持的 conversion 似乎还是不太对。 我们在编译得到...
--qzylalala
3. Re:如何可视化深度学习网络中Attention层
博主有没有keras版本的
--APengs
4. Re:GNU的make命令、makefile编写
makefile挺好的,当然现在流行的cmake也要学。
--lingr7
点击右上角即可分享