随笔分类 -  Transformer、GPT、BERT,预训练语言模型的前世今生

摘要:博客配套视频链接: https://space.bilibili.com/383551518?spm_id_from=333.1007.0.0 b 站直接看 配套 github 链接:https://github.com/nickchen121/Pre-training-language-model 阅读全文
posted @ 2022-07-12 16:29 B站-水论文的程序猿 阅读(4662) 评论(0) 推荐(0) 编辑
摘要:博客配套视频链接: https://space.bilibili.com/383551518?spm_id_from=333.1007.0.0 b 站直接看 配套 github 链接:https://github.com/nickchen121/Pre-training-language-model 阅读全文
posted @ 2022-07-12 16:28 B站-水论文的程序猿 阅读(3282) 评论(1) 推荐(1) 编辑
摘要:博客配套视频链接: https://space.bilibili.com/383551518?spm_id_from=333.1007.0.0 b 站直接看 配套 github 链接:https://github.com/nickchen121/Pre-training-language-model 阅读全文
posted @ 2022-07-12 16:28 B站-水论文的程序猿 阅读(4217) 评论(0) 推荐(0) 编辑
摘要:博客配套视频链接: https://space.bilibili.com/383551518?spm_id_from=333.1007.0.0 b 站直接看 配套 github 链接:https://github.com/nickchen121/Pre-training-language-model 阅读全文
posted @ 2022-07-12 16:27 B站-水论文的程序猿 阅读(5202) 评论(0) 推荐(5) 编辑
摘要:本文的主题是预训练语言模型的前世今生,会大致说下 NLP 中的预训练技术是一步一步如何发展到 Bert 模型的,从中可以很自然地看到 Bert 的思路是如何逐渐形成的,Bert 的历史沿革是什么,继承了什么,创新了什么,为什么效果那么好,主要原因是什么,以及为何说模型创新不算太大,为何说 Bert 是近年来 NLP 重大进展的集大成者。 预训练语言模型的发展并不是一蹴而就的,而是伴随着诸如词嵌入、序列到序列模型及 Attention 的发展而产生的。 阅读全文
posted @ 2022-07-12 16:26 B站-水论文的程序猿 阅读(62658) 评论(5) 推荐(28) 编辑
摘要:我为什么要做这件事呢?现存的python,机器学习视频都是为了培养人工智能算法工程师,各种高大上,各种看不懂,而有一批和我这样的同学,只想水一篇论文毕业,然后考公考编。因此,我的目标定位就是通过最快速的方法让大家具备水论文的一些必备基础。然后呢,transformer 和bert开课了,先润润嗓子,为正菜做准备。 博客配套视频链接: https://space.bilibili.com/383551518?spm_id_from=333.1007.0.0 b 站直接看 配套 github 链接:https://github.com/nickchen121/Pre-training-language-model 配套博客链接:https://www.cnblogs.com/nickchen121/p/15105048.html 阅读全文
posted @ 2021-08-05 19:31 B站-水论文的程序猿 阅读(94950) 评论(4) 推荐(25) 编辑