摘要: Embedding 模块作用:将词的索引转化为词对应的词向量,需要我们设置的两个参数:词汇表的大小和词嵌入的维度。 num_embeddings (int): size of the dictionary of embeddingsembedding_dim (int): the size of e 阅读全文
posted @ 2020-12-09 16:40 打了鸡血的女汉子 阅读(6900) 评论(1) 推荐(1) 编辑
摘要: 本萌新本来想好好学习下PYTORCH 版LSTM使用,学着学着还是一知半解 就准备去看看LSTM源码实现,发现是继承自RNN 类,结果就来弄清楚RNN 源码,真实学海无涯 头发有限。。。。 咱先从最简单的RNN模型下手,先不管几层layer叠加、方向问题,小萌新突然发现 从源码学习真的进步大,胜过看 阅读全文
posted @ 2020-12-09 14:35 打了鸡血的女汉子 阅读(724) 评论(0) 推荐(1) 编辑
摘要: 恢复内容开始 1、ZIP函数 help(zip) 可以看到,zip 函数接受的是 一系列可迭代对象,数组、元祖、字典、字符串都可以, 将对象中对应的元素打包成一个个元组,然后返回由这些元组组成的列表。 如果各个迭代器的元素个数不一致,则返回列表的长度 取决于最短的对象,而zip_longest返回列 阅读全文
posted @ 2020-12-08 14:19 打了鸡血的女汉子 阅读(597) 评论(0) 推荐(1) 编辑
摘要: 小强我今天想在pycharm改下文件名,结果眼睛都找瞎了 也没见到熟悉的rename ,后来发现 竟然在Refactor 下面,小强我不懂就学,反手去查了下啥意思,代码重构的意思,可不就包括文件改名,移动、复制、删除文件名嘛~~ 嗨,今天也新学这个单词了,下次又可以向男票显摆我贫瘠的词汇量了 阅读全文
posted @ 2020-12-08 12:09 打了鸡血的女汉子 阅读(478) 评论(0) 推荐(1) 编辑
摘要: 小萌新在看pytorch官网 LSTM代码时 对batch_first 参数 和torch.nn.utils.rnn.pack_padded_sequence 不太理解, 在回去苦学了一番 ,将自己消化过的记录在这,希望能帮到跟我有同样迷惑的伙伴 官方API:https://pytorch.org/ 阅读全文
posted @ 2020-12-08 11:29 打了鸡血的女汉子 阅读(4173) 评论(3) 推荐(5) 编辑
摘要: Bilstm+crf 常用于序列标注任务,例如命名实体识别,词性标注 以 “人家是小萌新”作词性标注为例,分词后为“人家 是 小萌新”,对应的词性为名词,动词,名词 为简化问题,假设词性只有名词和动词两类, Bilstm 输出为每个词stoftmax输出最大概率值对应的label,只用BiLSTM的 阅读全文
posted @ 2020-12-07 20:56 打了鸡血的女汉子 阅读(993) 评论(1) 推荐(1) 编辑
摘要: Pytorch里的LSTM单元接受的输入都必须是3维的张量(Tensors). 值得注意的点 第一维体现的每个句子的长度,因为是喂给网络模型,一般都设定为确定的长度,也就是我们喂给LSTM神经元的每个句子的长度,当然,如果是其他的带有带有序列形式的数据,则表示一个明确分割单位长度, 第二维度体现的是 阅读全文
posted @ 2020-12-07 20:54 打了鸡血的女汉子 阅读(1096) 评论(2) 推荐(1) 编辑