03 2021 档案
摘要:CNN (卷积神经网络) 为什么卷积神经网络可以用于图片 最初使用全连接神经网络,每一层使用前文的模块化思想,获得不同的图片信息,然后逐步深入,最后识别出来。 不同的神经元区块化侦测元素 相同的事物,不同的位置,使用相同的参数 图片的放缩对图片对识别效果并无太大影响 Convolution 使用一个
阅读全文
摘要:Why Deep Learning 深度越深就一定好吗? 并不意外,越深的model拟合效果越来越好 Fat + short vs This + Tall 长高会很有帮助,但是长宽不见得那么有帮助。 联想到隐藏层的作用,是帮助我们线性变换的,越深的model也许会变换的方向越来越多,而且每一个神经元
阅读全文
摘要:(反向传播) Gradient Descent 实际上Neural Network的Gradient Descent 并没有与一般的Gradient Descent 不一样,只是维度太大,一般都有上百万维 基础知识 链式求导 \[ y = g(x) \ \ \
阅读全文
摘要:Deep Learning 前沿 的使用频次几乎呈现指数级增长 表明已经越来越强大,运用面也越来越广了 主要步骤 Neural Network 把多个神经元连接起来就是神经网络 连接方式 神经网络的连接方式的不同导致不同的神经网络结构
阅读全文
摘要:Logitstic Regression Step 1: Function Set 使用Sigmod函数,会让输出限制在 Step 2: Goodness of a Function 要让效果最好的话,我们就让这个式子最大,也就是有最大的
阅读全文
摘要:Classification 从一堆数据中提取出信息,output是这对数据是属于哪一类 使用领域 金融领域信誉得分 根据一个人的收入,存款,年龄,等等,输出的是银行到底要不要借钱给这个人。 手写数字识别 根据输入的数字,输出实际的值。 医疗领域 判断是属于哪一种病,是患病了还是没患。 Pokemo
阅读全文
摘要:Gradient Descent Principle part 我们要做的是找到一组函数的参数使得在这个损失函数上的值最小即就是: \[ \theta = argminL(\theta) \\ L: loss \ function; \ \theta : param
阅读全文
摘要:Basis Concept Error 到底来自于什么地方 一种来自于, 一种来自于,我们要去评定哪一个是影响的决定性变量 模型只能从数据中得出来对于这个数据的猜测函数, 但是真正的函数是程序编写者才知道的逻辑,我们只能希望$f^
阅读全文
摘要:LinearRegression 由 接受样本的数据 ,得到这组数据的 。 Pokemon 想要通过面板的数据去预测这只宝可梦进化以后的CP值。 ML' basis setp Step 1: Model 上述的模型是一种线性的, $x
阅读全文
摘要:安装Clion IDE 界面UI 废话不多说,直接上图 具备功能 UI美观 (下面会介绍) 基础的代码编写能力 大容量的IDE插件 (下面会介绍) 代码补全,以及搭配Kite的详细模块预览,注释。 ............ 为了介绍我都把我的Clion删了,不考虑点个推荐嘛,😔😔 现在开始安装教
阅读全文