逻辑关系下的NN应用
自己好奇搜了几篇别人对Ng视频的的笔记,读下去可观性很强,后回到自己的笔记却觉得矛盾很多,有些地方搞得很模糊,自己没有仔细去想导致写完读起来很怪,此篇之后我决定放慢记笔记的速度,力求尽多地搞清楚模糊点。
首先之前一直出现的regression analysis(即:回归分析) 究竟是怎么回事?为什么要用回归分析做分类器。“回归分析是研究一个变量关于另一个(些)变量的具体依赖关系的计算方法和理论”敝如前述中曾经举过的例子:试图根据房屋的占地(size)与起居室的数目(number)、房屋的层数(floor)预测房屋的价格,这里的依赖关系从价格输出与3个特征的输入之间体现出来,我们利用所建立的回归分析模型来为接下来其他的输入预测输出。
直观下的NN案例
预测输入\(x_1\)与\(x_2\)进行逻辑与的结果是神经网络中最简单的一个应用案例,功能函数图形如下:
![graph of function](http://wx3.sinaimg.cn/mw690/7b8d2108gy1fgg7gq3obbj207k025743.jpg)
鉴于$x_0$为偏置单元,该值的取值总为1.
我们设置第一个theta矩阵参数:
\(\Theta^{(1)}=[-30 \ 20\ 20]\)
介于逻辑与的运算法则:
![and function to use](http://wx1.sinaimg.cn/mw690/7b8d2108gy1fgg7gqnfx1j20fp05jt93.jpg)
因此,我们通过使用小型神经网络而不是使用实际的AND门来构建计算机中的基本操作之一。 神经网络也可用于模拟所有其他逻辑门。 以下是逻辑运算符“OR”的示例:
\(\Theta^{(1)}\)矩阵分别对逻辑AND、NOR、OR的运算取值如下:
![the thetas](http://wx1.sinaimg.cn/mw690/7b8d2108gy1fgg7gqt4sjj207c04g0sn.jpg)
组合起来,可以得到XNOR的运算($x_1$和$x_2$都是0或1时结果输出1)
![XNOR operator grap](http://wx4.sinaimg.cn/mw690/7b8d2108gy1fgg7l8quk9j209d023glg.jpg)
对于第一层到第二层的参数$\Theta^{(1)}$取值如下:主要实现了AND(与门)和NOR(或非门)的功能:
对于第二层到第三层我们的参数选取为\(\Theta^{(2)}\):
\(\Theta^{(2)}=[-10\ 20\ 20]\)
总结一下为:
![6.jpg](http://wx4.sinaimg.cn/mw690/7b8d2108gy1fgg7grkbp3j20g908wmyr.jpg)
多级分类 (Multiclass Classification)
为了将数据分类到多个类中,我们假设函数返回值的向量。 假设我们想将我们的数据分为四类。 我们将使用以下示例来了解此分类是如何完成的。 该算法将图像作为输入并进行相应的分类:
![7.jpg](http://wx1.sinaimg.cn/mw690/7b8d2108gy1fgg7gs84isj20g108aq6a.jpg)
据上图共4类我们定义输出的结果y为:
![8.jpg](http://wx3.sinaimg.cn/mw690/7b8d2108gy1fgg7gsho6pj205f02rdfn.jpg)
每个$y^{(i)}$表示对应于汽车、行人、卡车或摩托车的不同图像。 内层每个都为我们提供一些新的信息,导致我们的最终假设功能。如下图:
![8.jpg](http://wx4.sinaimg.cn/mw690/7b8d2108gy1fgg7gsjhbgj208v02yglj.jpg)
输出结果类似于下图:
![9.jpg](http://wx4.sinaimg.cn/mw690/7b8d2108gy1fgg7i8suxwj204p02uwe9.jpg)
上图的结果表明得到的是第三个或$h_\Theta(x)_3$,代表上图中的摩托车。
下一节将对编程练习ex3做介绍。
版权声明:本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文链接。