[DeeplearningAI笔记]序列模型2.3-2.5余弦相似度/嵌入矩阵/学习词嵌入
5.2自然语言处理
觉得有用的话,欢迎一起讨论相互学习~
2.3词嵌入的特性 properties of word embedding
Mikolov T, Yih W T, Zweig G. Linguistic regularities in continuous space word representations[J]. In HLT-NAACL, 2013.
-
词嵌入可以用来解决类比推理问题(reasonable analogies)
-
man 如果对应woman,此时左方输入单词king,能否有一种算法能自动推导出右边的单词(queen)呢?
-
使用词嵌入表示方法,即Man表示为,Woman表示为,将两个单词相减得,,根据向量表示man和woman的主要差异在性别Gender上,而king和queen的主要差异也是在Gender上。
-
在做类比推理的任务时:
- 首先计算的值
- 然后计算集合
- 再取集合中和值最接近的那个值,认为是King类比推理后的结果。
-
-
-
在300D的数据中,寻找的平行的向量如图所示:
-
但是经过t-SNE后,高维数据被映射到2维空间,则此时寻找平行向量的方法不再适用于这种情况。
余弦相似度 (Cosine similarity)
- 其中二范数即是把向量中的所有元素求平方和再开平方根。
- 而分子是两个向量求内积,如果两个向量十分接近,则内积会越大。
- 得到的结果其实是两个向量的夹角的cos值
2.4嵌入矩阵 Embedding matrix
- 模型在学习词嵌入时,实际上是在学习一个词嵌入矩阵(Embedding matrix),假设词典中含有1W个单词。300个不同的特征,则特征矩阵是一个300*1W大小的矩阵。
Note
- 在实际应用中,使用词嵌入矩阵和词向量相乘的方法所需计算量很大,因为词向量是一个维度很高的向量,并且10000的维度中仅仅有一行的值是0,直接使用矩阵相乘的方法计算效率是十分低下。
- 所以在实际应用中,会用一个查找函数单独查找矩阵E的某列。 例如在Keras中,就会设置一个Embedding layer提取矩阵中特定的需要的列,而不是很慢很复杂的使用乘法运算
2.5学习词嵌入 learning word embedding
- 本节介绍使用深度学习来学习词嵌入的算法。
Bengio Y, Vincent P, Janvin C. A neural probabilistic language model[J]. Journal of Machine Learning Research, 2003, 3(6):1137-1155.
- 对于语句 I want a glass of orange juice to go along with my cereal.
- 对于之前的方法中,使用juice 前的四个单词 “a glass of orange ”来进行预测。
- 也可以使用 目标单词前后的四个词 进行预测
- 当然也可以只把 目标单词前的一个词输入模型
- 使用相近的一个词
总结
- 研究者们发现 如果你想建立一个语言模型,用目标词的前几个单词作为上下文是常见做法
- 但如果你的目标是学习词嵌入,使用以上提出的四种方法也能很好的学习词嵌入。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· winform 绘制太阳,地球,月球 运作规律
· AI与.NET技术实操系列(五):向量存储与相似性搜索在 .NET 中的实现
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 上周热点回顾(3.3-3.9)