会员
商店
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
喂你在哪
博客园
首页
新随笔
联系
管理
订阅
随笔- 54 文章- 0 评论- 6 阅读-
12万
我的随笔
1
2
3
4
5
6
下一页
Batch Normalization和Layer Normalization的对比分析
喂你在哪 2020-01-15 15:57
阅读:5728
评论:1
推荐:1
编辑
神经网络中的过拟合
喂你在哪 2019-12-31 23:37
阅读:2729
评论:0
推荐:0
编辑
NLP中的数据增强
喂你在哪 2019-11-25 19:23
阅读:806
评论:0
推荐:0
编辑
ZEN、ELECTRA、ALBERT
喂你在哪 2019-11-13 20:51
阅读:955
评论:0
推荐:0
编辑
BERT-wwm、BERT-wwm-ext、RoBERTa、SpanBERT、ERNIE2
喂你在哪 2019-11-13 20:23
阅读:6463
评论:0
推荐:1
编辑
机器学习之性能度量
喂你在哪 2019-07-07 10:48
阅读:563
评论:0
推荐:0
编辑
机器学习之聚类
喂你在哪 2019-07-05 22:29
阅读:202
评论:0
推荐:0
编辑
迁移学习与主动学习
喂你在哪 2019-07-05 21:56
阅读:1374
评论:0
推荐:0
编辑
机器学习之异常点检测
喂你在哪 2019-07-02 17:55
阅读:959
评论:0
推荐:0
编辑
常用的一些东西
喂你在哪 2019-06-27 23:08
阅读:219
评论:0
推荐:0
编辑
1
2
3
4
5
6
下一页
公告
昵称:
喂你在哪
园龄:
6年11个月
粉丝:
4
关注:
0
+加关注
<
2025年3月
>
日
一
二
三
四
五
六
23
24
25
26
27
28
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
1
2
3
4
5
搜索
常用链接
我的随笔
我的评论
我的参与
最新评论
我的标签
更多链接
随笔档案
2020年1月(1)
2019年12月(1)
2019年11月(3)
2019年7月(4)
2019年6月(30)
2019年5月(6)
2019年4月(2)
2019年3月(7)
阅读排行榜
1. 机器学习之特征选择和特征抽取(24425)
2. NLP之语言模型(12272)
3. NLP之CRF应用篇(序列标注任务)(9214)
4. Linux中目录以及路径问题(6818)
5. BERT-wwm、BERT-wwm-ext、RoBERTa、SpanBERT、ERNIE2(6463)
评论排行榜
1. NLP之语言模型(5)
2. Batch Normalization和Layer Normalization的对比分析(1)
推荐排行榜
1. NLP之关键词提取(TF-IDF、Text-Rank)(3)
2. NLP之语言模型(2)
3. Batch Normalization和Layer Normalization的对比分析(1)
4. BERT-wwm、BERT-wwm-ext、RoBERTa、SpanBERT、ERNIE2(1)
5. 机器学习之特征选择和特征抽取(1)
最新评论
1. Re:Batch Normalization和Layer Normalization的对比分析
写的太好了
--cz23333
2. Re:NLP之语言模型
@ 喂你在哪十分感谢!🙏我先认真理解下!...
--清风明月9527
3. Re:NLP之语言模型
@ 清风明月9527word2vec算是促进了语言模型的兴起,bert算是把语言模型带上了顶峰。word2vec训练出来的直接产物是词向量,Bert是以Token为单位的,可以直接获取的是字向量。对于...
--喂你在哪
4. Re:NLP之语言模型
你好,我是一个做nlp对话的产品经理,文章收益很多,一直有个疑问想请教下。像word2vec、bert这种语言模型,他们训练出来的产物是词向量吗?我理解是获取到词向量后,再通过标记数据进行对应模型的训...
--清风明月9527
5. Re:NLP之语言模型
@ 123向前走谢谢,我也是菜鸟都是根据看的别人总结的。...
--喂你在哪
点击右上角即可分享