06 2018 档案
摘要:原文地址:https://blog.csdn.net/guoziqing506/article/details/53019049 LSH(Locality Sensitive Hashing)翻译成中文,叫做“局部敏感哈希”,它是一种针对海量高维数据的快速最近邻查找算法。 在信息检索,数据挖掘以及推
阅读全文
摘要:原文地址:https://blog.csdn.net/qq_35082030/article/details/73368962 1. 引言 在深度学习十分火热的今天,不时会涌现出各种新型的人工神经网络,想要实时了解这些新型神经网络的架构还真是不容易。光是知道各式各样的神经网络模型缩写(如:DCIGN
阅读全文
摘要:原文地址:https://blog.csdn.net/tiandijun/article/details/40080823 卷积的本质及物理意义 提示:对卷积的理解分为三部分讲解1)信号的角度2)数学家的理解(外行)3)与多项式的关系 1 来源 卷积其实就是为冲击函数诞生的。“冲击函数”是狄拉克为了
阅读全文
摘要:原文地址:https://blog.csdn.net/dllian/article/details/7472916 假设数据是均匀采样于一个高维欧氏空间中的低维流形,流形学习就是从高维采样数据中恢复低维流形结构,即找到高维空间中的低维流形,并求出相应的嵌入映射,以实现维数约简或者数据可视化。它是从观
阅读全文
摘要:原文地址:https://www.cnblogs.com/hmy-blog/p/6555939.html 激活函数(Activation Function) 为了让神经网络能够学习复杂的决策边界(decision boundary),我们在其一些层应用一个非线性激活函数。最常用的函数包括 sigmo
阅读全文
摘要:原文地址:http://blog.sina.com.cn/s/blog_7445c2940102wy9x.html 数学中有很多重要的概念,但是以我有限的知识,看到目前学的大部分数学中一个通用的概念就是变换。而且,理解变换对其他各个学科的理解也很有帮助。或者说,变换其实是一种方法论,是一种我们观察世
阅读全文
摘要:原文地址:http://blog.sina.com.cn/s/blog_7445c2940102wmrp.html 本篇博文本来是想在下一篇博文中顺带提一句的,结果越写越多,那么索性就单独写一篇吧。在此要特别感谢实验室董师兄,正因为他的耐心讲解,才让我理解了卷积运算的统一性(果然学数学的都不是盖的)
阅读全文
摘要:AcronymStandard NameRank AAAI National Conference of the American Association for Artificial Intelligence A+ AAMAS International Conference on Autonomous Agents and Multiagent Systems A+ ACL As...
阅读全文