随笔分类 - 特征工程
摘要:在深度学习之前,传统的SIFT,HOG等算法均由按组统计特征的特性,它们一般将同一个种类的特征归为一组,然后在进行组归一化。 SIFT特征提取 https://blog.csdn.net/abcjennifer/article/details/7639681 HOG特征提取 https://www.
阅读全文
摘要:看这篇文章: https://zhuanlan.zhihu.com/p/41663141 构建分布式Tensorflow模型系列:特征工程 在Tensorflow中,通过调用tf.feature_column模块来创建feature columns。有两大类feature column,一类是生成d
阅读全文
摘要:高维稀疏数据进行快速相似查找,可以采用learning to hash,但高维稠密数据查找则采用annoy learning to hash 参考: https://blog.csdn.net/hero_fantao/article/details/70245284《海量数据相似查找系列1 -- M
阅读全文
摘要:这篇文章讲得还不错: https://blog.csdn.net/weixin_42446330/article/details/86710838 《Encoder-Decoder框架、Attention、Transformer、ELMO、GPT、Bert学习总结》 里面有一些点可以注意: 引入类似
阅读全文
摘要:参考这篇文章: https://zhuanlan.zhihu.com/p/33173246 https://www.sohu.com/a/220228574_717210(这篇是上面的转载) 其中ICS问题参考这里: https://blog.csdn.net/sinat_33741547/arti
阅读全文
摘要:Focal Loss for Dense Object Detection 是ICCV2017的Best student paper,文章思路很简单但非常具有开拓性意义,效果也非常令人称赞。 GHM(gradient harmonizing mechanism) 发表于 “Gradient Harm
阅读全文
摘要:第一种Normalization是对于将数据进行预处理时进行的操作,是对于数据集的各个特征分别进行处理,主要包括min-max normalization、Z-score normalization、 log函数转换和atan函数转换等。第二种Normalization对于每个样本缩放到单位范数(每
阅读全文
摘要:有不少资料讲数据集的,太多了就有些信息过剩了,把我自己认为还不错的数据集做一下记录 NLP WikiText:http://metamind.io/research/the-wikitext-long-term-dependency-language-modeling-dataset/ WikiTe
阅读全文
摘要:参考这篇文章: https://www.cnblogs.com/lianyingteng/p/7792693.html 总结:我们使用one-hot编码时,通常我们的模型不加bias项 或者 加上bias项然后使用正则化手段去约束参数;当我们使用哑变量编码时,通常我们的模型都会加bias项,因为不加
阅读全文
摘要:知乎这篇文章有蛮好的参考意义: https://www.zhihu.com/question/34867991?sort=created TomHall 请填写个人介绍 83 人赞同了该回答 TomHall 请填写个人介绍 TomHall 请填写个人介绍 TomHall TomHall TomHal
阅读全文