上一页 1 ··· 3 4 5 6 7 8 下一页
摘要: 题目 解题过程 这道题的关键点就是想办法按三位取逗号的标准输出,也就是在格式上做了一点要求,思路很简单。 cpp include include include using namespace std; int main() { / Sum是A、B之和,tmp是中间变量,i用于循环 / int A, 阅读全文
posted @ 2018-11-25 23:52 Wunsam_Chan 阅读(103) 评论(0) 推荐(0) 编辑
摘要: 陈越姥姥的《数据结构》刚刷完不久,想想就这么把它扔了太亏了,所以就打算开始刷一遍PAT。刷题的过程估计会很长,也做好了心理准备。 在这里对自己做出一些小要求: 1. 一个星期至少刷两道题,预计要花近一年多,所以除了寒假和考前两个星期都不能中断; 2. 不可轻易看题解,即使题目做不出来,也至少要对题目 阅读全文
posted @ 2018-11-25 23:51 Wunsam_Chan 阅读(102) 评论(0) 推荐(0) 编辑
摘要: 回顾 上一章说到,神经网络是一种很有效的多元分类器。那么神经网络是如何起作用的呢? 由之前的图片我们可以看到,神经网络从左向右,一层一层地向右传播,这种传播方式我们叫做“前向传播”。前向传播是根据上一层的节点值和权值来更新本层节点值的方式。这里,我们再复习一下前向传播的具体算法。 前向传播算法 上面 阅读全文
posted @ 2018-11-25 23:04 Wunsam_Chan 阅读(880) 评论(0) 推荐(0) 编辑
摘要: 为什么要使用神经网络 在笔记三中,曾提到非线性拟合的问题。当时是通过构造特征向量,即由两个或以上的变量构造一个新的变量,增加$\theta$的维度,以拟合出更细腻的曲线。下面是课件中类似的例子: 可以看到,随着变量即数据集的维度增加,这种做法将会导致“维度灾难”,越来越不可行。就上述例子,以100维 阅读全文
posted @ 2018-10-28 20:42 Wunsam_Chan 阅读(1465) 评论(0) 推荐(0) 编辑
摘要: 正则化 为什么要正则化 观察上图三个拟合曲线,我们可以得知:曲线一没有很好地分类;曲线三分类过于严格,以至于曲线过于复杂;曲线二是比较合适的分类曲线。 对两种特殊情况定义:图一是“欠拟合”(underfit),图三是“过拟合”(overfit)。一般来说,我们加大特征向量$\theta$的维度,可以 阅读全文
posted @ 2018-10-28 13:14 Wunsam_Chan 阅读(530) 评论(0) 推荐(0) 编辑
摘要: 感谢 "使用 Sublime + PlantUML 高效地画图" "一分钟Sublime Text搭建PlantUML生成环境" 安装工具 最省力的方式 使用chrome插件 ,然后直接用chrome打开该文件即可。注意要在插件管理中勾选:允许访问文件网址。 本地生成方式 对于一些特别大的文件,直接 阅读全文
posted @ 2018-10-27 20:21 Wunsam_Chan 阅读(27672) 评论(0) 推荐(1) 编辑
摘要: Logistic Function Logistic Function 针对某一类问题往往会比线性回归更加有效。如下图: 假如使用线性回归处理的话,针对离散值,如上图最右边一点,会导致线性函数向X轴正向倾斜,预测结果出现较大的改动。这个就不是一类很好的分类函数了,因为它对离散值敏感。 通过分析,我们 阅读全文
posted @ 2018-10-04 21:13 Wunsam_Chan 阅读(512) 评论(0) 推荐(0) 编辑
摘要: 多变量线性回归 题纲 多变量线性函数 优化思路 Normal Equation(正规方程) 线性回归多变量与单变量的区别 多变量线性回归的假设函数定义如下: $$ h_\theta(X) = \theta^TX = \sum_{i=0}^{n}\theta_ix^{(i)} $$ 其中$\theta 阅读全文
posted @ 2018-09-13 22:02 Wunsam_Chan 阅读(861) 评论(0) 推荐(0) 编辑
摘要: 单变量线性回归 纲要 代价函数 梯度下降算法 全局最优与局部最优 代价函数 函数定义: $$ J(\theta_0,\theta_1,...)=\frac{1}{2m}\sum_{i=1}^{n}(h_\theta(x^{(i)}) y^{(i)})^{2} $$ 代价函数是为了寻找假设函数$h(\ 阅读全文
posted @ 2018-09-12 15:22 Wunsam_Chan 阅读(154) 评论(0) 推荐(0) 编辑
摘要: 第五章——胜率和加数 贝叶斯的胜率表达形式 胜率表达式可以由贝叶斯定理的概率公式 $$p(H|)p(D|H)=\frac{p(H)p(D|H)}{p(D)}$$ 进行推导。如果A和B是互斥且穷尽的,就意味着$p(B)=1 p(A)$,将支持A的可能性写为o(A),因此我们可以得到: $$o(A|D) 阅读全文
posted @ 2018-09-08 15:22 Wunsam_Chan 阅读(255) 评论(0) 推荐(0) 编辑
上一页 1 ··· 3 4 5 6 7 8 下一页