吴恩达机器学习笔记26-样本和直观理解1(Examples and Intuitions I)

  从本质上讲,神经网络能够通过学习得出其自身的一系列特征。在普通的逻辑回归中,
我们被限制为使用数据中的原始特征𝑥1, 𝑥2, . . . , 𝑥𝑛,我们虽然可以使用一些二项式项来组合
这些特征,但是我们仍然受到这些原始特征的限制。在神经网络中,原始特征只是输入层,
在我们上面三层的神经网络例子中,第三层也就是输出层做出的预测利用的是第二层的特
征,而非输入层中的原始特征,我们可以认为第二层中的特征是神经网络通过学习后自己得
出的一系列用于预测输出变量的新特征。
  神经网络中,单层神经元(无中间层)的计算可用来表示逻辑运算,比如逻辑与(AND)、
逻辑或(OR)。
  举例说明:逻辑与(AND);下图中左半部分是神经网络的设计与output 层表达式,右边
上部分是sigmod 函数,下半部分是真值表。
我们可以用这样的一个神经网络表示AND 函数:

  其中𝜃0 = −30, 𝜃1 = 20, 𝜃2 = 20 我们的输出函数ℎ𝜃 (𝑥)即为:ℎ𝛩(𝑥) = 𝑔(−30 + 20𝑥1 +
20𝑥2)
我们知道𝑔(𝑥)的图像是:

所以我们有:ℎ𝛩(𝑥) ≈ x1AND x2
所以我们的:
这就是AND 函数。
接下来再介绍一个OR 函数:

OR 与AND 整体一样,区别只在于的取值不同。

posted @ 2019-02-21 00:08  NeoML  阅读(392)  评论(0编辑  收藏  举报