Contextualized Word Embedding-ELMO/BERT/GPT

参考这篇文章:

https://www.cnblogs.com/dogecheng/p/11615750.html

 

我们期望每一个 word token 都有一个 embedding。每个 word token 的 embedding 依赖于它的上下文。这种方法叫做 Contextualized Word Embedding。

 

BERT 是 Transformer 的 Encoder,GPT则是 Transformer 的 Decoder。GPT 输入一些词汇,预测接下来的词汇。其计算过程如下图所示。

 

 

 

 

先记到这里吧,其他好像也没有特别需要记录的。

 

posted @   blcblc  阅读(118)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?
历史上的今天:
2018-02-16 这道题目还是很难得- 剑指Offer - 正则表达式
2018-02-16 剑指Offer - 做过的一道题目- 之字形打印
2018-02-16 剑指Offer - 做出来了- 字符流中第一个不重复的字符
2018-02-16 哇,好厉害,做出来啦 - 剑指Offer - 找出排序二叉树中第K大的节点
2018-02-16 剑指Offer - 经典的按照行来打印节点
2018-02-16 好厉害啊 - 剑指Offer - 二叉树的下一个结点
2018-02-16 又做出来一道题目 - 不错的 - 想了一会儿- 剑指Offer - 对称的二叉树
点击右上角即可分享
微信分享提示