吴恩达机器学习笔记1-单变量线性回归(Linear Regression with One Variable)

  在监督学习中我们有一个数据集,这个数据集被称训练集。

  𝑚 代表训练集中实例的数量

  𝑥 代表特征/输入变量

  𝑦 代表目标变量/输出变量
  (𝑥, 𝑦) 代表训练集中的实例
  (𝑥(𝑖), 𝑦(𝑖)) 代表第𝑖 个观察实例

  ℎ 代表学习算法的解决方案或函数也称为假设(hypothesis)


  这就是一个监督学习算法的工作方式,可以看到这里有我们的训练集里房屋价格
我们把它喂给我们的学习算法,学习算法的工作了,然后输出一个函数,通常表示为小写 ℎ
表示。ℎ 代表hypothesis(假设),ℎ表示一个函数,输入是房屋尺寸大小,就像你朋友想出售
的房屋,因此 ℎ 根据输入的 𝑥值来得出 𝑦 值,𝑦 值对应房子的价格 因此,ℎ 是一个从𝑥
到 𝑦 的函数映射。
  我将选择最初的使用规则ℎ代表hypothesis,因而,要解决房价预测问题,我们实际上
是要将训练集“喂”给我们的学习算法,进而学习得到一个假设ℎ,然后将我们要预测的房屋
的尺寸作为输入变量输入给ℎ,预测出该房屋的交易价格作为输出变量输出为结果。那么,
对于我们的房价预测问题,我们该如何表达 ℎ?
  一种可能的表达方式为:ℎ𝜃(𝑥) = 𝜃0 + 𝜃1𝑥,因为只含有一个特征/输入变量,因此这样
的问题叫作单变量线性回归问题。

posted @ 2019-01-12 16:50  NeoML  阅读(420)  评论(0编辑  收藏  举报