上一页 1 ··· 149 150 151 152 153 154 155 156 157 ··· 185 下一页
摘要: http://cs231n.stanford.edu/slides/2017/cs231n_2017_lecture9.pdf The deeper model performs worse, but it’s not caused by overfitting! 阅读全文
posted @ 2017-09-25 16:12 papering 阅读(262) 评论(0) 推荐(0) 编辑
摘要: http://cs231n.stanford.edu/slides/2017/cs231n_2017_lecture4.pdf 阅读全文
posted @ 2017-09-25 14:19 papering 阅读(124) 评论(0) 推荐(0) 编辑
摘要: http://cs231n.github.io/linear-classify/ http://cs231n.github.io/assets/svmvssoftmax.png 阅读全文
posted @ 2017-09-25 11:28 papering 阅读(189) 评论(0) 推荐(0) 编辑
摘要: 直观 阅读全文
posted @ 2017-09-22 16:16 papering 阅读(121) 评论(0) 推荐(0) 编辑
摘要: http://www.cmo.com/features/articles/2016/3/9/data-decisions-dsp-vs-dmp.html As marketers assess their requirements for marketing technology, the ques 阅读全文
posted @ 2017-09-20 17:11 papering 阅读(245) 评论(0) 推荐(0) 编辑
摘要: http://karpathy.github.io/2014/09/02/what-i-learned-from-competing-against-a-convnet-on-imagenet/ 阅读全文
posted @ 2017-09-20 17:01 papering 阅读(178) 评论(0) 推荐(0) 编辑
摘要: https://www.tensorflow.org/tutorials/image_recognition 阅读全文
posted @ 2017-09-20 16:55 papering 阅读(195) 评论(0) 推荐(0) 编辑
摘要: http://neuralnetworksanddeeplearning.com/chap1.html Up to now, we've been discussing neural networks where the output from one layer is used as input 阅读全文
posted @ 2017-09-20 16:26 papering 阅读(229) 评论(0) 推荐(0) 编辑
摘要: http://neuralnetworksanddeeplearning.com/chap1.html . Sigmoid neurons are similar to perceptrons, but modified so that small changes in their weights 阅读全文
posted @ 2017-09-20 15:18 papering 阅读(271) 评论(0) 推荐(0) 编辑
摘要: spike 阅读全文
posted @ 2017-09-19 20:33 papering 阅读(175) 评论(0) 推荐(0) 编辑
摘要: @Matthew 【[抱拳]】推荐系统中,传统的两大算法,无论是基于人的过滤,还是基于物品的过滤,在前期历史数据的量和质都不充足的情况下,这两种传统的算法都无法冷启动。 【基于ANN的一种解决办法】 张三第一次点击了汽车广告,通过ANN训练,使得输出层的汽车的概率最大,次之的就为接下来要投出的广告类 阅读全文
posted @ 2017-09-19 20:28 papering 阅读(216) 评论(0) 推荐(0) 编辑
摘要: BLEU is designed to approximate human judgement at a corpus level, and performs badly if used to evaluate the quality of individual sentences. https:/ 阅读全文
posted @ 2017-09-19 18:36 papering 阅读(217) 评论(0) 推荐(0) 编辑
摘要: 安装TensorFlow 包依赖 https://www.tensorflow.org/tutorials/layers Building the CNN MNIST Classifier 【Each of these methods accepts a tensor as input and re 阅读全文
posted @ 2017-09-19 18:10 papering 阅读(488) 评论(0) 推荐(0) 编辑
摘要: http://mathworld.wolfram.com/HadamardProduct.html 阅读全文
posted @ 2017-09-19 16:21 papering 阅读(222) 评论(0) 推荐(0) 编辑
摘要: Hermitian_function 阅读全文
posted @ 2017-09-19 15:13 papering 阅读(125) 评论(0) 推荐(0) 编辑
摘要: Logistic function hyperbolic tangent arctangent function Gudermannian function Error function Generalised logistic function Smoothstep function Specif 阅读全文
posted @ 2017-09-19 14:27 papering 阅读(576) 评论(0) 推荐(0) 编辑
摘要: zh.wikipedia.org/wiki/卷积神经网络 池化(Pooling)是卷积神经网络中另一个重要的概念,它实际上一种形式的向下采样。有多种不同形式的非线性池化函数,而其中“最大池化(Max pooling)”是最为常见的。它是将输入的图像划分为若干个矩形区域,对每个子区域输出最大值。直觉上 阅读全文
posted @ 2017-09-19 14:21 papering 阅读(258) 评论(0) 推荐(0) 编辑
摘要: https://en.wikipedia.org/wiki/Convolutional_neural_network Convolutional layers apply a convolution operation to the input, passing the result to the 阅读全文
posted @ 2017-09-19 14:15 papering 阅读(211) 评论(0) 推荐(0) 编辑
摘要: Convolutional networks may include local or global pooling layers[clarification needed], which combine the outputs of neuron clusters at one layer int 阅读全文
posted @ 2017-09-19 11:19 papering 阅读(206) 评论(0) 推荐(0) 编辑
摘要: 【要解决到的问题】“对于给定的mac-rssi列表,求出特征值。” 阅读全文
posted @ 2017-09-18 21:55 papering 阅读(402) 评论(0) 推荐(0) 编辑
摘要: https://raw.githubusercontent.com/tensorflow/tensorflow/r1.3/tensorflow/examples/tutorials/word2vec/word2vec_basic.py 阅读全文
posted @ 2017-09-18 20:08 papering 阅读(319) 评论(0) 推荐(0) 编辑
摘要: en.wikipedia.org/wiki/Softmax_function 阅读全文
posted @ 2017-09-18 12:04 papering 阅读(145) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2017-09-18 04:31 papering 阅读(183) 评论(0) 推荐(0) 编辑
摘要: en.wikipedia.org/wiki/Convex_combination 凸组合 In convex geometry, a convex combination is a linear combination of points (which can be vectors, scalars 阅读全文
posted @ 2017-09-18 04:04 papering 阅读(739) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2017-09-18 03:41 papering 阅读(160) 评论(0) 推荐(0) 编辑
摘要: http://graphics.stanford.edu/courses/cs178/applets/convolution.html Convolution is an operation on two functions f and g, which produces a third funct 阅读全文
posted @ 2017-09-18 02:59 papering 阅读(1105) 评论(0) 推荐(0) 编辑
摘要: http://papers.nips.cc/paper/5477-neural-word-embedding-as-implicit-matrix-factorization 嵌入 | TensorFlow https://tensorflow.google.cn/programmers_guide 阅读全文
posted @ 2017-09-18 02:01 papering 阅读(228) 评论(0) 推荐(0) 编辑
摘要: cold start 0-用户 1-物品 2-系统 阅读全文
posted @ 2017-09-18 01:30 papering 阅读(123) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2017-09-18 01:18 papering 阅读(733) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2017-09-18 00:44 papering 阅读(264) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2017-09-18 00:35 papering 阅读(1391) 评论(0) 推荐(0) 编辑
摘要: K-DSN 深度堆叠网络 Random Features for Large-Scale Kernel Machines To accelerate the training of kernel machines, we propose to map the input data to a rand 阅读全文
posted @ 2017-09-17 23:08 papering 阅读(586) 评论(0) 推荐(0) 编辑
摘要: zh.wikipedia.org/wiki/凸優化 以下问题都是凸优化问题,或可以通过改变变量而转化为凸优化问题:[5] 最小二乘 线性规划 线性约束的二次规划 半正定规划 Convex function Convex minimization is a subfield of optimizati 阅读全文
posted @ 2017-09-17 22:31 papering 阅读(256) 评论(0) 推荐(0) 编辑
摘要: zh.wikipedia.org/wiki/希尔伯特空间 在数学里,希尔伯特空间即完备的内积空间,也就是说一个带有内积的完备向量空间。是有限维欧几里得空间的一个推广,使之不局限于实数的情形和有限的维数,但又不失完备性(而不像一般的非欧几里得空间那样破坏了完备性)。与欧几里得空间相仿,希尔伯特空间也是 阅读全文
posted @ 2017-09-17 21:39 papering 阅读(885) 评论(0) 推荐(0) 编辑
摘要: zh.wikipedia.org/wiki/傅里叶级数 所谓的两个不同向量正交是指它们的内积为0,这也就意味着这两个向量之间没有任何相关性,例如,在三维欧氏空间中,互相垂直的向量之间是正交的。事实上,正交是垂直在数学上的一种抽象化和一般化。一组n个互相正交的向量必然是线性无关的,所以必然可以张成一个 阅读全文
posted @ 2017-09-17 21:37 papering 阅读(2910) 评论(0) 推荐(0) 编辑
摘要: zh.wikipedia.org/wiki/傅里叶级数 In mathematics, a Fourier series (English: /ˈfʊəriˌeɪ/)[1] is a way to represent a function as the sum of simple sine wave 阅读全文
posted @ 2017-09-17 21:28 papering 阅读(2231) 评论(0) 推荐(0) 编辑
摘要: http://web.stanford.edu/class/cs246/slides/dim-red.pdf http://web.mit.edu/be.400/www/SVD/Singular_Value_Decomposition.htmhttp://mathworld.wolfram.com/ 阅读全文
posted @ 2017-09-16 20:02 papering 阅读(414) 评论(0) 推荐(0) 编辑
摘要: 【协方差矩阵在图像处理之特征脸处理中的应用】 【说】注意关键点在于“数据量的巨大,计算量的巨大”。【说】特征值起到了数据压缩、显示特征的作用。 一个标准化的面部图形的一个大型数据集合的协方差矩阵的特征向量称为特征脸。 https://zh.wikipedia.org/wiki/特征值和特征向量 在图 阅读全文
posted @ 2017-09-16 18:51 papering 阅读(1362) 评论(0) 推荐(0) 编辑
摘要: zh.wikipedia.org/wiki/特征值和特征向量 计算矩阵的特征值和特征向量 假设我们想要计算给定矩阵的特征值。若矩阵很小,我们可以用特征多项式进行符号演算。但是,对于大型矩阵这通常是不可行的,在那种情况我们必须采用数值方法。 阅读全文
posted @ 2017-09-16 18:13 papering 阅读(1551) 评论(0) 推荐(0) 编辑
摘要: http://www.physics.miami.edu/~nearing/mathmethods/operators.pdf 阅读全文
posted @ 2017-09-16 18:05 papering 阅读(174) 评论(0) 推荐(0) 编辑
上一页 1 ··· 149 150 151 152 153 154 155 156 157 ··· 185 下一页