摘要:
链接:https://www.nowcoder.com/questionTerminal/661c49118ca241909add3a11c96408c8来源:牛客网 [编程题]合唱团 热度指数:18491 时间限制:1秒 空间限制:32768K 算法知识视频讲解 有 n 个学生站成一排,每个学生有 阅读全文
摘要:
API解释中文版(简书文章,没事看看): http://www.jianshu.com/p/e3a79eac554f Tensorlfow op辨异:tf.add()与tf.nn.bias_add()区别: http://blog.csdn.net/lanchunhui/article/detail 阅读全文
摘要:
文章来自知乎,作者hit nlper 忆臻 转自:https://zhuanlan.zhihu.com/p/27627299 在喂给机器学习模型的数据中,对数据要进行归一化的处理。 为什么要进行归一化处理,下面从寻找最优解这个角度给出自己的看法。 例子 假定为预测房价的例子,自变量为面积,房间数两个 阅读全文
摘要:
此文转自知乎,哈工大NLPer 忆臻 原出处:https://zhuanlan.zhihu.com/p/25279356 查阅资料和学习,大家对神经网络中激活函数的作用主要集中下面这个观点: 激活函数是用来加入非线性因素的,解决线性模型所不能解决的问题。 下面我分别从这个方面通过例子给出自己的理解~ 阅读全文
摘要:
1/先解释下CNN的过程: 首先对一张图片进行卷积,可以有多个卷积核,卷积过后,对每一卷积核对应一个chanel,也就是一张新的图片,图片尺寸可能会变小也可能会不变,然后对这个chanel进行一些pooling操作。 最后pooling输出完成,这个算作一个卷积层。 最后对最后一个pooling结果 阅读全文
摘要:
核函数这个东西并不只是在SVM中得到应用,在很多范围领域中都会得到应用。 在上学期上课的时候虽然提到了核函数,但是当时对 其并没有一个很好的理解。只知道这个可以作用在一些软间隔上面会比较有用。今天趁着宿舍验收,上网在知乎上看了一个解释,感觉非常精妙。 核函数的作用简单的说就是由低维度空间向高维度空间 阅读全文
摘要:
1 import numpy as np 2 from sklearn import datasets 3 from sklearn.cross_validation import train_test_split 4 from sklearn.neighbors import KNeighbors 阅读全文
摘要:
ps:转的。当时主要是看到一个问题是L1 L2之间有何区别,当时对l1与l2的概念有些忘了,就百度了一下。看完这篇文章,看到那个对W减小,网络结构变得不那么复杂的解释之后,满脑子的6666 >把网络权重W看做为对上一层神经元的一个WX+B的线性函数模拟一个曲线就好。知乎大神真的多。 版权声明:本文为 阅读全文
摘要:
参考:莫烦。 主要是运用的MLP。另外这里用到的是批训练: 这个代码很简单,跟上次的基本没有什么区别。 这里的lossfunction用到的是是交叉熵cross_entropy.可能网上很多形式跟这里的并不一样。 这里一段时间会另开一个栏。专门去写一些机器学习上的一些理论知识。 这里代码主要写一下如 阅读全文
摘要:
referrence: 莫烦视频 先介绍几个函数 1.tf.cast() 英文解释: 也就是说cast的直译,类似于映射,映射到一个你制定的类型。 2.tf.argmax 原型: 含义:返回最大值所在的坐标。(谁给翻译下最后一句???) ps:谁给解释下axis最后一句话? 例子: 3.tf.red 阅读全文