摘要: 如果在 Few-shot Learning 的任务中去训练普通的基于 cross-entropy 的神经网络分类器,那么几乎肯定是会过拟合,因为神经网络分类器中有数以万计的参数需要优化。 相反,很多非参数化的方法(最近邻、K-近邻、Kmeans)是不需要优化参数的,因此可以在 meta-learni 阅读全文
posted @ 2020-03-20 22:19 乐乐章 阅读(1816) 评论(0) 推荐(0) 编辑