上一页 1 ··· 3 4 5 6 7 8 9 10 11 ··· 22 下一页
  2022年4月21日
摘要: 1问题描述 下面这个式子是交叉熵损失函数,p代表预测值,p*代表标签的真实值。 如果p=sigmoid(x),损失函数L对x求导可以得到下面的这个式子: 我们定义了g这一变量,它的含义是梯度范数 g的值代表了样本预测的难易程度,g的值越大,代表预测越困难。预测值p与真实值p*越接近,g的值越小,下面 阅读全文
posted @ 2022-04-21 10:51 啥123 阅读(281) 评论(0) 推荐(0) 编辑
  2022年4月14日
摘要: 摘要 基于方面的情绪分析旨在确定在线评论中针对特定方面的情绪极性。最近的研究采用了基于注意的神经网络模型来隐式地将方面与意见词联系起来。然而,由于语言的复杂性和一个句子中多个方面的存在,这些模型经常混淆连接。在本文中,我们通过有效的语法信息编码来解决这个问题。首先,我们定义了一个统一的面向方面的依赖 阅读全文
posted @ 2022-04-14 19:36 啥123 阅读(267) 评论(0) 推荐(0) 编辑
  2022年4月5日
摘要: torch.nn.Embedding(num_embeddings, embedding_dim, padding_idx=None, max_norm=None, norm_type=2.0, scale_grad_by_freq=False, sparse=False, _weight=None 阅读全文
posted @ 2022-04-05 22:31 啥123 阅读(781) 评论(0) 推荐(0) 编辑
摘要: 1 编码方式 如果训练数据采用的编码方式是Bert,则通过BertTokenizer.from_pretrained(args.bert_model_dir)来加载预训练模型和训练的参数。 2 加载数据集 加载train_dataset训练数据,test_dataset测试数据,word_vocab 阅读全文
posted @ 2022-04-05 09:24 啥123 阅读(314) 评论(0) 推荐(0) 编辑
  2022年4月1日
摘要: 参考博客:https://blog.csdn.net/u011984148/article/details/99921480 1.把我们要获取词向量的句子进行分词处理,再根据模型中的vocab.txt获取每个词的对应的索引。 token初始化 tokenized_text = tokenizer.t 阅读全文
posted @ 2022-04-01 11:40 啥123 阅读(2798) 评论(0) 推荐(0) 编辑
  2022年3月26日
摘要: 最近的研究采用了基于注意的神经网络模型来隐式地将方面与意见词联系起来。然而,由于语言的复杂性和一个句子中多个方面的存在,这些模型经常混淆连接。在本文中,我们通过有效的语法信息编码来解决这个问题。 我们定义了一个统一的面向方面的依赖树结构,该结构通过对普通的依赖解析树进行整形和剪枝来植根于目标方面。然 阅读全文
posted @ 2022-03-26 11:37 啥123 阅读(240) 评论(0) 推荐(0) 编辑
  2022年3月18日
摘要: 计算图通常包含两种元素,一个是 tensor,另一个是 Function。张量 tensor 不必多说,但是大家可能对 Function 比较陌生。这里 Function 指的是在计算图中某个节点(node)所进行的运算,比如加减乘除卷积等等之类的,Function 内部有 forward() 和 阅读全文
posted @ 2022-03-18 17:05 啥123 阅读(1500) 评论(0) 推荐(0) 编辑
  2022年3月10日
摘要: 当微信小程序里面的一个模块需要重复使用时,就可以使用自定义组件的方式,以后在使用这一模块时可以随时调用,不用再写重复的代码。比如下面的搜索框可能在多个页面都会出现,这时我们就可以使用自定义组件的方式。 1.首先创建一个文件夹components,再创建一个存放组件的文件夹,之后右键单击选择新建Com 阅读全文
posted @ 2022-03-10 18:03 啥123 阅读(552) 评论(0) 推荐(0) 编辑
  2022年3月2日
摘要: 我们在进行模型评估和选择的时候,先将数据集随机分为训练集、验证集和测试集,然后用训练集训练模型,用验证集验证模型,根据情况不断调整模型,选择其中最好的模型,再用训练集和测试集训练模型得到一个最好的模型,最后用测试集评估最终的模型。 训练集 训练集是用于模型拟合数据样本。 验证集 是模型训练过程中单独 阅读全文
posted @ 2022-03-02 20:33 啥123 阅读(1772) 评论(0) 推荐(0) 编辑
  2022年2月28日
摘要: Byte-Pair-Encoding是用于解决未登录词的一种方法。首先简单提一句什么是未登录词,未登录词可以理解为训练语料库中没有出现的,但是在测试语料库中出现的词。我们在处理NLP任务时,通常会根据语料生成一个词典,把语料中词频大于某个阈值的词放入词典中,而低于该阈值的词统统编码成"#UNK"。这 阅读全文
posted @ 2022-02-28 21:31 啥123 阅读(700) 评论(0) 推荐(0) 编辑
上一页 1 ··· 3 4 5 6 7 8 9 10 11 ··· 22 下一页