08 2021 档案

word2vec原理及gensim中word2vec的使用
摘要:概述 在NLP中,对于一个词,我们用一个词向量来表示,最常见的一个方式是one hot representation,这种词向量的编码方式就是用一个很长的向量来表示一个词,向量的长度为词典的大小N,向量的分量只有一个1,其他全为0,1的位置对应该词在词典中的索引。这种表示方法不需要繁琐的计算,简单易 阅读全文

posted @ 2021-08-21 23:43 朴素贝叶斯 阅读(8284) 评论(0) 推荐(0) 编辑

Tensor.expand_as
摘要:函数定义 Tensor.expand_as(other) → Tensor Expand this tensor to the same size as other. self.expand_as(other) is equivalent to self.expand(other.size()). 阅读全文

posted @ 2021-08-05 21:58 朴素贝叶斯 阅读(167) 评论(0) 推荐(0) 编辑

Tensor.expand
摘要:函数定义 Tensor.expand(*sizes) → Tensor Returns a new view of the self tensor with singleton(一个,单个) dimensions expanded to a larger size. Passing -1 as th 阅读全文

posted @ 2021-08-05 21:46 朴素贝叶斯 阅读(224) 评论(0) 推荐(0) 编辑

LogSumExp
摘要:机器学习中有很多巧妙的窍门, 可以加速训练 提升表现 ... 今天我将讨论LogSumExp这一机器学习中常见的模式。 定义 首先给出定义: 我们什么时候会见到这样的式子?常见的一个地方是计算softmax函数的交叉熵损失。softmax函数可以见下式所示: 你可以把softmax函数看成一种接受任 阅读全文

posted @ 2021-08-05 21:32 朴素贝叶斯 阅读(1211) 评论(0) 推荐(0) 编辑

BiLSTM+CRF及pytorch实现
摘要:前言 对于命名实体识别任务,基于神经网络的方法非常普遍。例如,Neural Architectures for Named Entity Recognition提出了一个使用word and character embeddings的BiLSTM-CRF命名实体识别模型。我将以本文中的模型为例来解释 阅读全文

posted @ 2021-08-05 20:53 朴素贝叶斯 阅读(3928) 评论(0) 推荐(2) 编辑

导航

< 2025年2月 >
26 27 28 29 30 31 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 1
2 3 4 5 6 7 8

统计

点击右上角即可分享
微信分享提示