05 2020 档案

摘要:1.方法介绍 web of science是最常用的搜索SCI收录文章的方法,但是该网站需要会员登录才可以使用,大多数学校或者图书馆都购买了该网站资源,因此如果你处于学校或者图书馆网络下就可以直接看到搜索画面 找到自己搜索到的文章,页面右边有文章被引的次数,然后点击标题进入文章,如图所示。 点击查看 阅读全文
posted @ 2020-05-18 09:46 雨后观山色 阅读(2253) 评论(0) 推荐(0) 编辑
摘要:1.利用matplotlib包绘图,保存svg,再转成emf矢量图贴在文章里 用Python作图保存的图矢量格式为svg、eps、pdf的,不能直接插入word。 而Word本身只能接受wmf,emf格式的矢量图。 所以svg的要借助其他软件转换。如用visio,illustrator等。这里推荐一 阅读全文
posted @ 2020-05-17 19:42 雨后观山色 阅读(19332) 评论(0) 推荐(3) 编辑
摘要:1.office2016的word、ppt中插入公式的两种方式 方式一:office2016自带公式编辑工具 选择菜单栏中开始项附近的插入 方式二: 注意:我的visio(本电脑安装的visio的公式编辑器坏了)中若要插入公式,可以在word中编辑好,复制到visio中。 2.PPT绘制的流程图插入 阅读全文
posted @ 2020-05-14 21:55 雨后观山色 阅读(414) 评论(0) 推荐(0) 编辑
摘要:1.Transformer Google于2017年6月发布在arxiv上的一篇文章《Attention is all you need》,提出解决sequence to sequence问题的transformer模型,用全attention的结构代替了lstm,抛弃了之前传统的encoder-d 阅读全文
posted @ 2020-05-02 11:16 雨后观山色 阅读(1119) 评论(0) 推荐(0) 编辑
摘要:1.Dropout m(k)是dropout的过程。 2.attention机制 (1)seq2seq Seq2Seq 是一个 Encoder-Decoder 结构的神经网络,它的输入是一个序列(Sequence),输出也是一个序列(Sequence),因此而得名 “Seq2Seq”。在 Encod 阅读全文
posted @ 2020-05-01 11:18 雨后观山色 阅读(2750) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示