05 2020 档案
摘要:1.方法介绍 web of science是最常用的搜索SCI收录文章的方法,但是该网站需要会员登录才可以使用,大多数学校或者图书馆都购买了该网站资源,因此如果你处于学校或者图书馆网络下就可以直接看到搜索画面 找到自己搜索到的文章,页面右边有文章被引的次数,然后点击标题进入文章,如图所示。 点击查看
阅读全文
摘要:1.利用matplotlib包绘图,保存svg,再转成emf矢量图贴在文章里 用Python作图保存的图矢量格式为svg、eps、pdf的,不能直接插入word。 而Word本身只能接受wmf,emf格式的矢量图。 所以svg的要借助其他软件转换。如用visio,illustrator等。这里推荐一
阅读全文
摘要:1.office2016的word、ppt中插入公式的两种方式 方式一:office2016自带公式编辑工具 选择菜单栏中开始项附近的插入 方式二: 注意:我的visio(本电脑安装的visio的公式编辑器坏了)中若要插入公式,可以在word中编辑好,复制到visio中。 2.PPT绘制的流程图插入
阅读全文
摘要:1.Transformer Google于2017年6月发布在arxiv上的一篇文章《Attention is all you need》,提出解决sequence to sequence问题的transformer模型,用全attention的结构代替了lstm,抛弃了之前传统的encoder-d
阅读全文
摘要:1.Dropout m(k)是dropout的过程。 2.attention机制 (1)seq2seq Seq2Seq 是一个 Encoder-Decoder 结构的神经网络,它的输入是一个序列(Sequence),输出也是一个序列(Sequence),因此而得名 “Seq2Seq”。在 Encod
阅读全文