摘要:
1、定义 查准率(precision):预测患有癌症且预测正确的人数 / 预测有多少人患有癌症 召回率(recall):预测患有癌症且预测正确的人数 / 实际有多少人患有癌症 2、关系 他俩的关系如下: 3、F值 F值又称F1值,定义如下,若有P或者R=0时,则F=0,该算法较差。F值越高越好。 例 阅读全文
摘要:
假定假设函数为一个二次函数,只是参数未定: 每给定一个样本大小,就能训练出对应的假设函数,从而利用这个假设函数可以计算出Jtrain(仍然在之前拿来训练的那些样本里面),然后将训练好的假设函数用在全部的验证集上可以计算出Jcv(注意在计算准确率的时候就不必λ了)。 则代价与训练样本的个数之间的关系为 阅读全文
摘要:
两条曲线规律:测试集或验证集上的代价函数随所选的多项式的次数的变化曲线,训练集上的...曲线(递减的那条) 下图中,左边的红框代表遇到了高偏差问题,右边的红框代表高方差问题。 阅读全文
摘要:
1.数据分组 将原始数据分成训练集,验证集和测试集,它们的比例分别为:60%,20%,20%。 训练集(train set) —— 用于模型拟合的数据样本。验证集(development set)—— 是模型训练过程中单独留出的样本集,它可以用于调整模型的超参数和用于对模型的能力进行初步评估。 在神 阅读全文
摘要:
1、前向计算 举例(原本没有+1项,这是人为加上去的): 计算步骤: 先添加一个值为1的x0组成输入,θ1(大小是:对面神经元个数 * (此面神经元个数+1),即 3*4)的第i行拿出来与输入做点乘,sigmoid作用之后放到隐藏层第i个神经元里面(i=1,2,3): 再添加一个值为1的x0组成隐藏 阅读全文
摘要:
1. clear:清除工作空间的所有变量 clear all:清除工作空间的所有变量,函数,和MEX文件 2. y = linspace(x1,x2,n) 生成 n 个点,起点是x1,终点是x2。 3. plot属性: LineWidth——指定线宽 MarkerEdgeColor——指定标识符的边 阅读全文
摘要:
正则化:通过在代价函数里面再加上一些项,使得最后训练出来的参数值较小,就能防止过拟合。下图中,方括号里面的左边一项是为了更好地拟合数据,右边是为了降低参数值(防止过拟合,即不要拟合得太近),通过λ来调节这两个关系,这里的λ是自己人为设定的。若正则化参数λ过大的话(比如10^10),那么θ1,θ2。。 阅读全文
摘要:
优化算法有:梯度下降算法,共轭梯度法(conjugate gradients),BFGS,L-BFGS 后面三种算法都是可以在内部自动选择学习率,不需要人为一直搞,而且收敛速度快。 阅读全文
摘要:
1.定义 逻辑回归属于一种分类算法,因变量为分类变量。 2.假设函数 通常令假设函数(此处为一个非线性假设)为(无非就是套在了激励函数里面了): 其中该假设函数的输出结果为:y=1的概率值 等价的,可以用新符号来表示,将拦截项专门拿出来,此时参数和x都没有1这一项了: 3.决策边界(decision 阅读全文
摘要:
为了求得参数θ,也可以不用迭代的方法(比如梯度下降法对同一批数据一直迭代),可以采用标准方程法一次性就算出了θ,而且还不用feature scaling(如果feature不多的话,比如一万以下,用这种方法最好)。 标准方程法介绍: (1) 这里面,X的第一列是人为添加的,为了方便运算的,都置为1, 阅读全文