上一页 1 ··· 28 29 30 31 32 33 34 35 36 ··· 64 下一页
摘要: 阅读全文
posted @ 2020-03-18 10:40 今夜无风 阅读(182) 评论(0) 推荐(0) 编辑
摘要: 在进行文本分类时,仅仅依靠模型是得到满意的效果,需要结合关键词提高精度,一个例子如下: df = pd.read_excel(file_name, encoding='utf8') text = df.values.tolist() # key_words = ['牛肉','猪肉','鸡肉'] ke 阅读全文
posted @ 2020-03-16 09:23 今夜无风 阅读(414) 评论(0) 推荐(0) 编辑
摘要: GLUE 是一个用于评估通用 NLP 模型的基准,其排行榜可以在一定程度上反映 NLP 模型性能的高低。然而,现有的 GLUE 基准针对的是英文任务,无法评价 NLP 模型处理中文的能力。为了填补这一空白,国内关注 NLP 的热心人士发布了一个中文语言理解测评基准ChineseGLUE。Chines 阅读全文
posted @ 2020-03-04 19:51 今夜无风 阅读(1493) 评论(0) 推荐(0) 编辑
摘要: 机器之心编辑部 训练一亿参数量的全连接网络,44 核心 CPU 让 V100 甘拜下风,靠的居然是——哈希? 深度学习模型的训练和推理加速近来是研究领域关注的重点。虽然普遍观点认为,GPU 相比 CPU 有更强的算力优势。但在近日,莱斯大学的计算机科学家们公布了新的研究成果,其提出的深度学习框架,在 阅读全文
posted @ 2020-03-04 19:19 今夜无风 阅读(778) 评论(0) 推荐(0) 编辑
摘要: 当你要处理一个任务,比如说分类,手上就会有一批训练集和一批测试集,测试集使用来最终的评测。为了能更好的训练一个model并进行有效评估,首先要做的是将手头上的训练集划分出一个验证集,用以验证模型 之前的k折交叉验证没有考虑到标签分布的问题,或者干脆就random一批验证集,其实这样最终的模型会有隐患 阅读全文
posted @ 2020-03-04 14:38 今夜无风 阅读(3107) 评论(0) 推荐(0) 编辑
摘要: 批量下载requirements.txt中的第三方库 命令: pip wheel -w target_file_path -r requirements.txt 在windows环境中下载linux需要的包,通过 pip download 命令: pip download -d . torch==1 阅读全文
posted @ 2020-03-04 10:42 今夜无风 阅读(689) 评论(0) 推荐(0) 编辑
摘要: 模型搞到这时候,就是要以不断提升泛化力和鲁棒性,当今两个主流的方法是(1)知识蒸馏;(2)对抗学习 本节主要说对抗训练,它是一种能够有效提高模型鲁棒性和泛化能力的训练手段,基本原理:在原始输入上增加对抗扰动,得到对抗样本,再利用对抗样本进行训练,从而提高模型表现。 在自然语言处理中,这个任务处理的就 阅读全文
posted @ 2020-03-03 17:17 今夜无风 阅读(1207) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-03-03 12:15 今夜无风 阅读(397) 评论(0) 推荐(0) 编辑
摘要: import numpy as np from matplotlib import pyplot as plt from torchvision import datasets, transforms def softmax_t(x, t): x_exp = np.exp(x /t) return 阅读全文
posted @ 2020-03-02 12:21 今夜无风 阅读(432) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-03-01 17:14 今夜无风 阅读(135) 评论(0) 推荐(0) 编辑
上一页 1 ··· 28 29 30 31 32 33 34 35 36 ··· 64 下一页