摘要: https://www.cnblogs.com/HuZihu/p/9761161.html 阅读全文
posted @ 2020-09-26 19:32 popozyl 阅读(431) 评论(0) 推荐(0) 编辑
摘要: DP解出栈序列数 状态转移方程 dp[i][j] = dp[i-1][j] + dp[i][j-1] 意义:入栈$i$个元素,出栈$j$个元素,所得到的出栈序列数 方程解释: 入栈$i$次,出栈$j$次的出栈序列数有以下两种情况: 入栈$i-1$次,出栈$j$次,第$i$个入栈元素不弹出 \(dp[ 阅读全文
posted @ 2020-09-21 09:47 popozyl 阅读(219) 评论(0) 推荐(0) 编辑
摘要: 神经网络解决多分类问题例:数字识别 1. 观察样本(Visualizing the data) 训练集提供5000张数字图片,每张图片为20x20像素,并被转化成1x400的向量存储。样本输入为5000x400的矩阵,输出为5000x1的向量。coursera提供了将灰度值转化为图片的函数,但这对我 阅读全文
posted @ 2020-09-20 09:13 popozyl 阅读(1416) 评论(0) 推荐(0) 编辑
摘要: 多分类例题 - 手写数字识别 提供的数据集包括5000张手写数字0~9图片及对应的正确数字值。其中,每一张图片已被预处理成20 * 20 像素的灰白图片,并转化成灰度存入到矩阵中。要求利用OVA算法进行手写数字识别。 绘制训练集 本题的图片绘制涉及灰度的一些内容,我并不了解。这里使用coursera 阅读全文
posted @ 2020-09-18 18:48 popozyl 阅读(286) 评论(0) 推荐(0) 编辑
摘要: 无约束最优化 fminunc 官方文档 求无约束多变量函数的最小值 语法 x = fminunc(fun,x0) % 最基本的用法,给定起始点求出局部最优解 x = fminunc(fun,x0,options) % 添加参数 options,指定一些如‘最优化方式’,‘迭代次数’等信息 x = f 阅读全文
posted @ 2020-09-18 08:40 popozyl 阅读(3861) 评论(0) 推荐(0) 编辑
摘要: 二分类 由于线性模型在拟合二分类问题的表现很差,因此在做二分类回归时需要找一个单调可微函数将分类任务的真实标记y与线性回归模型的预测值联系起来。 考虑到二分类任务,其输出标记为$y \in {0,1}$,而线性回归模型产生的预测值为$h_\theta(x) = \Theta X$,是连续的实值。于是 阅读全文
posted @ 2020-09-17 21:08 popozyl 阅读(767) 评论(0) 推荐(0) 编辑
摘要: 特征归一化,特征映射,正则化 特征归一化(Feature Normalize/Feature Scaling) 应用简介 当数据集的各个属性之间的值分布差别较大时,运用梯度下降算法求解局部最优解时会需要很小的学习率以及多次迭代才能达到最优解。因此,使用特征归一化主要有以下两条作用: 归一化后加快了梯 阅读全文
posted @ 2020-09-17 21:02 popozyl 阅读(1974) 评论(0) 推荐(0) 编辑
摘要: 一元线性回归例题 - 餐馆扩建 IIn this part of this exercise, you will implement linear regression with one variable to predict profits for a food truck. Suppose yo 阅读全文
posted @ 2020-09-17 11:58 popozyl 阅读(338) 评论(0) 推荐(0) 编辑
摘要: 分类练习 1. 绘制训练集 在进行分类时,依旧需要观察训练集的样本特征,选择合适的模型 data = load("ex2data2.txt"); x = data(:,[1,2]); y = data(:,3); plotData(x,y); x = mapFeature(x(:,1),x(:,2) 阅读全文
posted @ 2020-09-17 11:50 popozyl 阅读(232) 评论(0) 推荐(0) 编辑
摘要: 线性回归 一次线性回归 问题引入 下图表示的是房价关于住房面积的样本数据。我们的主要任务,是根据样本的离散点集拟合出一条直线$h_{\theta}(x) = \theta_0+\theta_1x$尽可能的接近$y(x)$,从而预测任意面积的房价。我们称这样的$h_\theta(x)$为本次线性回归的 阅读全文
posted @ 2020-09-15 20:55 popozyl 阅读(206) 评论(0) 推荐(0) 编辑