上一页 1 2 3 4 5 6 ··· 10 下一页
摘要: 双重提交和匿名问题 问题1:我们已经向ICLR2021提交了我们的论文,现在我们还有一个关于arXiv的非匿名版本。ICLR2021将于2021年1月12日通知我们最终结果,即ACL-IJCNLP 2021的匿名期,我们想知道如果我们当时将该文件提交给ACL-IJCNLP 2021是否违反匿名政策。 阅读全文
posted @ 2021-01-12 12:42 冰河入梦~ 阅读(1351) 评论(0) 推荐(0) 编辑
摘要: IDEA激活码1 IDEA激活码2 IDEA2019激活教程 IDEA2019下载 阅读全文
posted @ 2021-01-12 07:45 冰河入梦~ 阅读(66) 评论(0) 推荐(0) 编辑
摘要: 常用网站 SMP2020官网 GOOLE学术(需要付费使用) 百度翻译 Paddle Paddle DBLP 论文检索 ACL论文写作说明 ACL-IJCNLP2021 Academic Phrasebank(学术用语) Paper with Codes 论文写作相关 中文预训练语言模型回顾 详解B 阅读全文
posted @ 2021-01-11 08:51 冰河入梦~ 阅读(4) 评论(0) 推荐(0) 编辑
摘要: 1、类和对象 package basis; /* * Java文件必须以.java作为扩展名 * 一个Java文件只能有一个public class * public class的名字必须和文件名字一样,大小写都要完全一致 * 一个文件可以有多个class,但是只能有一个是public * 不提倡一 阅读全文
posted @ 2020-11-23 14:51 冰河入梦~ 阅读(134) 评论(0) 推荐(0) 编辑
摘要: 1 Do We Need Zero Training Loss After Achieving Zero Training Error? (ICML,2020) 2 阅读全文
posted @ 2020-11-21 14:46 冰河入梦~ 阅读(115) 评论(0) 推荐(0) 编辑
摘要: 遇到的问题 参考自: 三种损失不下降 参考2***** 参考3 该博文分析了模型训练过程中三种loss不下降的情况,并给出了一些解决的思路。 其他可能的情况 1 网络层没有初始化参数 2 超参数设定不合理 2.1 训练的epoch太少 看到的只是局部情况,最终要的其实是整体收敛就行,也许训练100、 阅读全文
posted @ 2020-11-20 23:36 冰河入梦~ 阅读(177) 评论(0) 推荐(0) 编辑
摘要: 理解LSTM 阅读全文
posted @ 2020-11-12 17:21 冰河入梦~ 阅读(39) 评论(0) 推荐(0) 编辑
摘要: 一、前言 在深度学习模型训练的过程中,常常需要实时监听并可视化一些数据,如损失值loss,正确率acc等。在Tensorflow中,最常使用的工具非Tensorboard莫属;在Pytorch中,也有类似的TensorboardX,但据说其在张量数据加载的效率方面不如visdom。visdom是Fa 阅读全文
posted @ 2020-11-09 17:06 冰河入梦~ 阅读(4668) 评论(0) 推荐(2) 编辑
摘要: 参考1 参考2 阅读全文
posted @ 2020-11-09 14:09 冰河入梦~ 阅读(1117) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/qq_27292549/article/details/81092653 阅读全文
posted @ 2020-11-09 14:06 冰河入梦~ 阅读(426) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 ··· 10 下一页