03 2020 档案

摘要:深度学习在广泛应用于目标检测、分类等计算机视觉任务中。但这些应用往往需要很大的计算量和能耗。例如处理一张图片分类,VGG-16需要做 150亿次计算,而YOLOv3需要执行390亿次计算。 这就带来一个问题,如何在低功耗的嵌入式系统或移动设备中部署深度学习呢?一种解决办法是将计算任务转移到云侧,但这 阅读全文
posted @ 2020-03-31 19:54 今夜无风 阅读(310) 评论(0) 推荐(0) 编辑
摘要:在去年11月份,NLP大神Manning联合谷歌做的ELECTRA一经发布,迅速火爆整个NLP圈,其中ELECTRA-small模型参数量仅为 BERT-base模型的1/10,性能却依然能与BERT、RoBERTa等模型相媲美。 在前不久,谷歌终于开源了ELECTRA,并发布了预训练模型,这对于缺 阅读全文
posted @ 2020-03-26 11:15 今夜无风 阅读(929) 评论(0) 推荐(0) 编辑
摘要:之前在研究lsh算法,糊里糊涂的,但是该算法的高速性能让我还是得把他搞懂。 借鉴之前阅读的各个大佬博客,从相思能推荐的角度完善了一版代码,花了两天时间才调试出来,看看以后能不能用得上。大家有需求的可以直接使用了,福利满满。嘎嘎嘎 功能:已知一个样本的二进制特征向量,从特征中心中找出特征相似的样本 源 阅读全文
posted @ 2020-03-25 19:21 今夜无风 阅读(1388) 评论(0) 推荐(1) 编辑
摘要:传统的基于协同过滤的推荐系统在实时性方面的弊端 面对具有大规模高维稀疏矩阵特征的用户-项目历史评分矩阵,传统的单纯的基于协同过滤的推荐系统存在计算量大,扩展性不强,推荐效率低等问题,严重影响实时推荐系统的实现,因此本文尝试在现有基于协同过滤的推荐系统上,引入局部敏感哈希(Local-Sensitiv 阅读全文
posted @ 2020-03-19 14:39 今夜无风 阅读(903) 评论(0) 推荐(0) 编辑
摘要:转载至:https://blog.csdn.net/weixin_43336415/article/details/84898213 阅读全文
posted @ 2020-03-19 14:13 今夜无风 阅读(256) 评论(0) 推荐(0) 编辑
摘要:一.题外话 虽然是科普,不过笔者个人认为大道至简,也就是说越简单的东西很可能越值得探讨,或者另外一种说法越简单的东西越不好讲解;其实笔者认为这就是《编程之美》所要传递的——大道至简。 软件构建老师给我推荐的《走出软件作坊》还没看呢。 二.概述 高维数据检索(high-dimentional retr 阅读全文
posted @ 2020-03-19 10:58 今夜无风 阅读(278) 评论(0) 推荐(0) 编辑
摘要:pandas和csv使用最为频繁,保存数据集时尽量使用csv存储,而不是txt 对于训练集中的数据,content,labels,将原始的list封装成dict,直接转换为dataFrame data = pd.DataFrame({"samples":content, "labels":label 阅读全文
posted @ 2020-03-18 15:42 今夜无风 阅读(231) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-03-18 10:40 今夜无风 阅读(179) 评论(0) 推荐(0) 编辑
摘要:在进行文本分类时,仅仅依靠模型是得到满意的效果,需要结合关键词提高精度,一个例子如下: df = pd.read_excel(file_name, encoding='utf8') text = df.values.tolist() # key_words = ['牛肉','猪肉','鸡肉'] ke 阅读全文
posted @ 2020-03-16 09:23 今夜无风 阅读(412) 评论(0) 推荐(0) 编辑
摘要:GLUE 是一个用于评估通用 NLP 模型的基准,其排行榜可以在一定程度上反映 NLP 模型性能的高低。然而,现有的 GLUE 基准针对的是英文任务,无法评价 NLP 模型处理中文的能力。为了填补这一空白,国内关注 NLP 的热心人士发布了一个中文语言理解测评基准ChineseGLUE。Chines 阅读全文
posted @ 2020-03-04 19:51 今夜无风 阅读(1451) 评论(0) 推荐(0) 编辑
摘要:机器之心编辑部 训练一亿参数量的全连接网络,44 核心 CPU 让 V100 甘拜下风,靠的居然是——哈希? 深度学习模型的训练和推理加速近来是研究领域关注的重点。虽然普遍观点认为,GPU 相比 CPU 有更强的算力优势。但在近日,莱斯大学的计算机科学家们公布了新的研究成果,其提出的深度学习框架,在 阅读全文
posted @ 2020-03-04 19:19 今夜无风 阅读(767) 评论(0) 推荐(0) 编辑
摘要:当你要处理一个任务,比如说分类,手上就会有一批训练集和一批测试集,测试集使用来最终的评测。为了能更好的训练一个model并进行有效评估,首先要做的是将手头上的训练集划分出一个验证集,用以验证模型 之前的k折交叉验证没有考虑到标签分布的问题,或者干脆就random一批验证集,其实这样最终的模型会有隐患 阅读全文
posted @ 2020-03-04 14:38 今夜无风 阅读(3087) 评论(0) 推荐(0) 编辑
摘要:批量下载requirements.txt中的第三方库 命令: pip wheel -w target_file_path -r requirements.txt 在windows环境中下载linux需要的包,通过 pip download 命令: pip download -d . torch==1 阅读全文
posted @ 2020-03-04 10:42 今夜无风 阅读(662) 评论(0) 推荐(0) 编辑
摘要:模型搞到这时候,就是要以不断提升泛化力和鲁棒性,当今两个主流的方法是(1)知识蒸馏;(2)对抗学习 本节主要说对抗训练,它是一种能够有效提高模型鲁棒性和泛化能力的训练手段,基本原理:在原始输入上增加对抗扰动,得到对抗样本,再利用对抗样本进行训练,从而提高模型表现。 在自然语言处理中,这个任务处理的就 阅读全文
posted @ 2020-03-03 17:17 今夜无风 阅读(1195) 评论(0) 推荐(0) 编辑
摘要:import numpy as np from matplotlib import pyplot as plt from torchvision import datasets, transforms def softmax_t(x, t): x_exp = np.exp(x /t) return 阅读全文
posted @ 2020-03-02 12:21 今夜无风 阅读(428) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-03-01 17:14 今夜无风 阅读(133) 评论(0) 推荐(0) 编辑