上一页 1 2 3 4 5 6 ··· 10 下一页
摘要: 阅读全文
posted @ 2019-09-07 17:30 nowgood 阅读(3661) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2019-06-08 22:03 nowgood 阅读(5323) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2019-05-26 20:10 nowgood 阅读(1793) 评论(0) 推荐(1) 编辑
摘要: 这里有意思的一点就是, 这里提到如果有更多与原始训练集相似的未标记的数据可用, 即使老师模型的性能不变, 随着数据的增多, 学生模型的性能也会提高, 可以试一下. 阅读全文
posted @ 2019-05-26 18:06 nowgood 阅读(1650) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2019-05-11 17:13 nowgood 阅读(593) 评论(0) 推荐(0) 编辑
摘要: L-softmax 阅读全文
posted @ 2019-05-05 19:03 nowgood 阅读(2638) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2019-04-22 11:52 nowgood 阅读(1354) 评论(0) 推荐(0) 编辑
摘要: center loss 阅读全文
posted @ 2019-04-21 19:14 nowgood 阅读(1896) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2019-04-21 17:41 nowgood 阅读(595) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2019-04-21 15:51 nowgood 阅读(533) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 ··· 10 下一页