上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 38 下一页
摘要: https://zhuanlan.zhihu.com/p/28871960 深度学习模型中的卷积神经网络(Convolution Neural Network, CNN)近年来在图像领域取得了惊人的成绩,CNN直接利用图像像素信息作为输入,最大程度上保留了输入图像的所有信息,通过卷积操作进行特征的提 阅读全文
posted @ 2017-07-26 15:09 合唱团abc 阅读(1881) 评论(0) 推荐(1) 编辑
摘要: 100G的数组排序,只有2G内存,怎么排序? http://www.oschina.net/question/165717_25135?sort=time&p=1 先哈希,后取余分成小文件,然后每次读取两个小文件,比较队首元素,然后就排序了 不创建临时变量交换两个数的值: http://blog.c 阅读全文
posted @ 2017-07-25 22:33 合唱团abc 阅读(208) 评论(0) 推荐(0) 编辑
摘要: 进程与线程的区别 读写锁 同步异步 memcpy存在的问题(如果复制的地址有重叠,可能出现问题)?用memmove为什么不会有这种问题?请实现?(memmove开辟了一块临时空间) linux文件词频统计:http://blog.csdn.net/dlutbrucezhang/article/det 阅读全文
posted @ 2017-07-25 22:32 合唱团abc 阅读(186) 评论(0) 推荐(0) 编辑
摘要: 1、什么是boosting tree 2、GBDT 3、L1和L2正则为何可以减弱over-fitting,L1和L2正则有什么区别? 从贝叶斯的角度来看, 正则化等价于对模型参数引入先验分布 http://www.cnblogs.com/ljygoodgoodstudydaydayup/p/648 阅读全文
posted @ 2017-07-25 22:25 合唱团abc 阅读(365) 评论(0) 推荐(0) 编辑
摘要: Softmax回归(Softmax Regression) 最简单的Softmax回归模型是先将输入层经过一个全连接层得到的特征,然后直接通过softmax 函数进行多分类 输入层的数据$X$传到输出层,在激活操作之前,会乘以相应的权重$W$,并加上偏置变量 $b$,具体如下: $ y_i = {s 阅读全文
posted @ 2017-07-25 10:24 合唱团abc 阅读(299) 评论(0) 推荐(0) 编辑
摘要: 模型的优化目标如下: 其中,$<x_n,y_n>$是一条训练样本,$y_n$是训练目标,$x_n$是normalized bag of features。矩阵参数A是基于word的look-up table,也就是A是词的embedding向量。$Ax_n$矩阵运算的数学意义是将word的embed 阅读全文
posted @ 2017-07-22 10:06 合唱团abc 阅读(1876) 评论(0) 推荐(0) 编辑
摘要: 词向量: 用一个向量的形式表示一个词 词向量的一种表示方式是one-hot的表示形式:首先,统计出语料中的所有词汇,然后对每个词汇编号,针对每个词建立V维的向量,向量的每个维度表示一个词,所以,对应编号位置上的维度数值为1,其他维度全为0。这种方式存在问题并且引发新的质疑:1)无法衡量相关词之间的距 阅读全文
posted @ 2017-07-19 20:48 合唱团abc 阅读(2962) 评论(1) 推荐(0) 编辑
摘要: KNN适用情景: 需要一个特别容易解释的模型的时候。 比如需要向用户解释原因的推荐算法。 贝叶斯适用情景: 需要一个比较容易解释,而且不同维度之间相关性较小的模型的时候。 可以高效处理高维数据,虽然结果可能不尽如人意。 决策树适用情景: 因为它能够生成清晰的基于特征(feature)选择不同预测结果 阅读全文
posted @ 2017-07-16 16:51 合唱团abc 阅读(853) 评论(0) 推荐(0) 编辑
摘要: Optimization in speed and memory usage Many boosting tools use pre-sorted based algorithms[1][2](e.g. default algorithm in xgboost) for decision tree 阅读全文
posted @ 2017-07-14 16:25 合唱团abc 阅读(1183) 评论(0) 推荐(0) 编辑
摘要: 集成学习通过将多个学习器进行结合,常可获得比单一学习器显著优越的泛化性能,对“弱学习器” 尤为明显。弱学习器常指泛化性能略优于随机猜测的学习器。集成学习的结果通过投票法产生,即“少数服从多数”。个体学习不能太坏,并且要有“多样性”,即学习器间具有差异。即集成个体应“好而不同”。 假设基分类器的错误率 阅读全文
posted @ 2017-07-07 16:32 合唱团abc 阅读(2999) 评论(0) 推荐(1) 编辑
上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 38 下一页