会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
罗西的思考
一手伸向技术,一手伸向生活
博客园
首页
新随笔
联系
订阅
管理
随笔 - 298
文章 - 0
评论 - 164
阅读 -
63万
随笔分类 -
211_Jaeger
211_Jaeger
[业界方案]用Jaeger来学习分布式追踪系统Opentracing
摘要:笔者之前有过zipkin的经验,希望扩展到Opentracing,于是在学习Jaeger基础上总结出此文,与大家分享。
阅读全文
posted @
2020-09-11 20:42
罗西的思考
阅读(2867)
评论(0)
推荐(1)
编辑
公告
★关于生活和技术的思考★
欢迎关注公众号,您将会得到及时的文章推送信息:
昵称:
罗西的思考
园龄:
5年3个月
粉丝:
256
关注:
0
+加关注
<
2025年2月
>
日
一
二
三
四
五
六
26
27
28
29
30
31
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
1
2
3
4
5
6
7
8
搜索
常用链接
我的随笔
我的评论
我的参与
最新评论
我的标签
随笔分类
001_机器学习(178)
002_大数据(43)
003_微服务(28)
004_分布式(29)
005_消息队列(26)
006_深度学习(148)
007_论文阅读(13)
008_推荐系统(13)
009_业界方案(12)
010_AIOps(1)
011_分布式机器学习(134)
012_Android(1)
013_梁山好汉说IT(19)
014_源码分析(51)
015_白话解析(17)
016_项目记录(14)
017_工具使用(3)
018_笔记整理(1)
019_探秘Transformer(2)
100_Java(4)
101_Lua(5)
103_Python(1)
200_Alink(22)
201_Flink(17)
202_Ionic(2)
203_Redis(4)
204_Hadoop(1)
205_OpenResty(2)
206_Oozie(2)
207_Spring Boot(1)
208_Yarn(1)
209_OpenTracing(3)
210_SOFAStack(23)
211_Jaeger(1)
212_Windows(1)
213_TensorFlow(10)
214_日志收集(1)
216_Horovod(21)
901_历史长河(6)
902_艺术学习(1)
903_语文学习(1)
904_管理 & 战略(3)
更多
随笔档案
2025年2月(6)
2023年7月(1)
2022年5月(3)
2022年4月(7)
2022年3月(11)
2022年2月(11)
2022年1月(12)
2021年12月(19)
2021年11月(17)
2021年10月(11)
2021年9月(11)
2021年8月(11)
2021年7月(13)
2021年6月(9)
2021年5月(8)
2021年4月(8)
2021年3月(11)
2021年2月(8)
2021年1月(9)
2020年12月(9)
2020年11月(9)
2020年10月(9)
2020年9月(9)
2020年8月(13)
2020年7月(14)
2020年6月(17)
2020年5月(6)
2020年4月(4)
2020年3月(5)
2020年2月(3)
2020年1月(6)
2019年12月(1)
2019年11月(5)
2019年10月(1)
更多
阅读排行榜
1. [白话解析] Flink的Watermark机制(41837)
2. [源码解析] 模型并行分布式训练Megatron (1) --- 论文 & 基础(22777)
3. [源码解析] 模型并行分布式训练Megatron (2) --- 整体架构(11912)
4. [源码解析] PyTorch 分布式(1) --- 数据加载之DistributedSampler(9423)
5. [源码解析] 模型并行分布式训练 Megatron (3) ---模型并行实现(9030)
评论排行榜
1. [源码分析] Facebook如何训练超大模型 --- (3)(6)
2. [论文翻译] 分布式训练 Parameter sharding 之 ZeRO(6)
3. [白话解析] Flink的Watermark机制(6)
4. 新书出版:《分布式机器学习——系统、工程与实战》(5)
5. [源码解析] 快手八卦 --- 机器学习分布式训练新思路(3)(5)
推荐排行榜
1. [白话解析] Flink的Watermark机制(22)
2. 探秘Transformer系列之(1):注意力机制(14)
3. 探秘Transformer系列之(2)---总体架构(11)
4. [白话解析] 深入浅出 极大似然估计 & 极大后验概率估计(8)
5. 深度学习利器之自动微分(1)(7)
最新评论
1. Re:探秘Transformer系列之(1):注意力机制
好文。现在都在使用大模型做各种工作,但对于其是如何工作的原理完全不知道。希望通过该系列文章能填补少许这方面的知识。不求能做大模型相关的工作,但求能知道其内部的工作原因,其所依赖的一些设施,其所面临的一...
--八月神释
2. Re:探秘Transformer系列之(2)---总体架构
支持一下!
--hantangblog
3. Re:[源码解析] 模型并行分布式训练Megatron (5) --Pipedream Flush
megtaron系列大体逻辑过了一遍,但是很多源码部分还需仔细品味,感谢作者的分享,逻辑讲的很清晰!!!
--还好我是天秤座
4. Re: [源码解析] 模型并行分布式训练Megatron (2) --- 整体架构
@liujiong1982 你好,当时主要参考版本是 2.5...
--罗西的思考
5. Re:[源码解析] 深度学习流水线并行之PipeDream(1)--- Profile阶段
@七星,北辰 你好,当时的链接...
--罗西的思考
点击右上角即可分享