随笔分类 - AI、ML和Bigdata
摘要:本文主要关注输入输出的形状,通过两种标签形式探索一下其计算机制。 交叉熵损失函数 实验设置:假设采用AutoEncoder+分类器。AE负责重构图像,计算MSE。分类器通过latent vector计算23个类别的概率向量。 import torch nn as nn net = AutoEncod
阅读全文
摘要:AutoEncoder练习,后续加个语音去噪。
阅读全文
摘要:通过pytorch实现自定义图像算子,以此熟悉pytorch的用法
阅读全文
摘要:共12章:基础概论、凸优化与无约束优化、最速下降法、牛顿法及其改进、共轭梯度法、拟牛顿法、约束优化、对偶定理、ML的风险与损失、梯度法及其改进、动量法及其改进、带约束的优化算法。
阅读全文
摘要:集成学习根据个体学习器的生成方式分为Bagging和Boosting两大类。 Bagging的个体学习器之间不存在强依赖关系,Boosting存在强依赖关系。 Bagging可以同时生成的并行化方法,Boosting必须串行化生成的序列化方法。 Bagging Bootstrap aggregati
阅读全文
摘要:计算文档的相似性,通常使用Jaccard系数,但是在大数据下Jaccard计算复杂度很高,由此出现了MinHash方法来近似计算。更高效的方法为LSH。
阅读全文
摘要:最简单的方法就用SCAN加参数STARTROW和ENDROW hbase(main):024:0> scan 'score',{STARTROW=>'0005',ENDROW=>'0008'} 输出结果: ROW COLUMN+CELL 0005 column=course:Operating Sy
阅读全文
摘要:按值排序,MapReduce
阅读全文