摘要: https://pytorch.org/docs/stable/index.html 阅读全文
posted @ 2020-11-25 14:23 _yanghh 阅读(252) 评论(0) 推荐(0) 编辑
摘要: 在线编辑器网址 $1$:https://latex.codecogs.com/eqneditor/editor.php 在线编辑器网址 $2$:https://latex.vimsky.com/ 阅读全文
posted @ 2020-07-09 16:24 _yanghh 阅读(329) 评论(0) 推荐(0) 编辑
摘要: 1. 查询各种库函数:http://www.cplusplus.com/ 阅读全文
posted @ 2020-06-16 18:55 _yanghh 阅读(720) 评论(0) 推荐(0) 编辑
摘要: 输入文献的DOI号或者直接上传PDF 在几秒内就能自动生成文献研究的内容总结以及文献得出的结论: doi的全称是“digital object identifier”,数字对象唯一标识,被喻为“互联网上的条形码”、“科技论文的身份证”, 通过它可以方便、可靠地链接到论文全文。doi代码具有唯一性,这 阅读全文
posted @ 2022-10-13 16:06 _yanghh 阅读(4434) 评论(0) 推荐(0) 编辑
摘要: Connected Papers是一款知名的文献分析工具。 只要输入要分析论文的以下信息(doi、arXiv url、标题、Semantic Scholar url或PubMed url),就可查询到该论文的引用网络、先前研究和后续研究。 我们以“Generative adversarial net 阅读全文
posted @ 2022-10-13 15:20 _yanghh 阅读(3993) 评论(0) 推荐(0) 编辑
摘要: 1.requires_grad 当我们创建一个张量 (tensor) 的时候,如果没有特殊指定的话,那么这个张量是默认是不需要求导的。我们可以通过 tensor.requires_grad 来检 查一个张量是否需要求导。在张量间的计算过程中,如果在所有输入中,有一个输入需要求导,那么输出一定会需要求 阅读全文
posted @ 2022-10-12 21:11 _yanghh 阅读(439) 评论(0) 推荐(0) 编辑
摘要: Python 打印调用栈: import traceback traceback.print_stack() For CLI usage, the general command is: kiwi (train|pretrain|predict|evaluate|search) CONFIG_FIL 阅读全文
posted @ 2021-08-24 22:52 _yanghh 阅读(169) 评论(0) 推荐(0) 编辑
摘要: 训练seq2seq模型: parlai train_model --task cornell_movie --model seq2seq --model-file tmp/model_s2s --batchsize 8 --rnn-class gru --hiddensize 200 --numla 阅读全文
posted @ 2021-05-19 19:29 _yanghh 阅读(182) 评论(0) 推荐(0) 编辑
摘要: 为什么需要对项目分发打包? 平常我们习惯了使用pip来安装一些第三方模块,这个安装过程之所以简单,是因为模块开发者为我们默默地为我们做了所有繁杂的工作,而这个过程就是打包。 打包,就是将你的源代码进一步封装,并且将所有的项目部署工作都事先安排好,这样使用者拿到后即装即用,不用再操心如何部署的问题。 阅读全文
posted @ 2021-05-17 11:25 _yanghh 阅读(4115) 评论(0) 推荐(0) 编辑
摘要: 论文地址:https://arxiv.org/pdf/2001.09977.pdf 模型 Meena的seq2seq模型是基于Evolved Transformer来搭建的。 Transformer包含一个Encoder和一个Decoder,每个Encoder由若干个结构相同的Encoder-blo 阅读全文
posted @ 2021-05-14 20:10 _yanghh 阅读(258) 评论(0) 推荐(1) 编辑
摘要: 论文地址:https://arxiv.org/pdf/2004.13637.pdf 模型 这篇论文提出了3个模型。 1. 检索模型(Retriever) 就是从候选集中选取最合适的句子作为机器人当前的答复,训练时,候选集只有给定的一句response; 在做推断时,候选集由训练集中的所有respon 阅读全文
posted @ 2021-05-14 20:01 _yanghh 阅读(752) 评论(0) 推荐(1) 编辑
摘要: 1. Perplexity (PPL) 假设长度为 $n$ 的句子 $s=(w_1,w_2,...,w_n)$,它的 perplexity 定义为: 先取对数再取指数,则变换为下式: 由公式可知,句子概率越大,语言模型越好,迷惑度越小。 下面是一些 ngram 的概率计算: 2. BLEU 在自然语 阅读全文
posted @ 2021-05-11 20:57 _yanghh 阅读(1835) 评论(0) 推荐(0) 编辑
摘要: 这个函数理解为类型转换函数,将一个不可训练的类型 Tensor 转换成可以训练的类型 parameter 并将这个 parameter 绑定到这个 module 里面(net.parameter() 中就有这个绑定的 parameter,所以在参数优化的时候可以进行优化),所以经过类型转换这个变量就 阅读全文
posted @ 2021-01-13 11:09 _yanghh 阅读(6110) 评论(0) 推荐(2) 编辑