摘要:
全连接神经网络模块化实现 Linear与Relu单层实现 LossLayer实现 多层神经网络 不同梯度下降方法 Dropout层 今天这篇博文针对Assignment3的全连接网络作业,对前面学习的内容进行一些总结 在前面的作业中我们建立神经网络的操作比较简单,也不具有模块化的特征,在A3作业中, 阅读全文
摘要:
UMICH CV Neural Network 既然谈到神经网络,我们肯定要讨论在神经网络中是如何进行梯度的计算以及参数的优化的 传统的方法就是我们手动计算梯度,但是随着神经网络层数的增加,这种方法显然过于复杂 因此我们引入了计算图的概念,从一个简单的例子出发: 我们可以把一个(x+y)z的计算式拆 阅读全文
摘要:
UMICH CV Neural Network 对于传统的线性分类器,分类效果并不好,所以这节引入了一个两层的神经网络,来帮助我们进行图像分类 可以看出它的结构十分简单,x作为输入层,经过max(0,W1*x)到达h隐藏层,再经过W2到达s输出层 如果我们对隐藏层的结果进行可视化,我们可以看到如下的 阅读全文
摘要:
UMICH CV Linear Classifiers 在上一篇博文中,我们讨论了利用损失函数来判断一个权重矩阵的好坏,在这节中我们将讨论如何去找到最优的权重矩阵 想象我们要下到一个峡谷的底部,我们自然会选择下降最快的斜坡,换成我们这个问题就是要求权重矩阵相对于损失函数的梯度函数,最简单的方法就是使 阅读全文
摘要:
UMICH CV Linear Classifiers 对于使用线性分类器来进行图片分类,我们可以给出这样的参数化方法: 而对于这样一个式子,我们怎么去理解呢? 首先从代数的角度,这个f(x,W)就是一张图片的得分,我们可以将一张图片所有的像素点输入,乘以一个权重矩阵,再加上一个偏置项b,就得到f( 阅读全文
摘要:
UMICH CV Image Classification KNN 在本节课中,首先justin老师为我们介绍了图像分类了基础概念以及其用途,这里就不多涉及了 接着我们思考图像分类问题,如果我们想要直接通过某种算法来实现图像分类,显然是比较棘手的,于是引入了机器学习的思想,即用数据驱动,用数据去训练 阅读全文
摘要:
cs50ai3 Optimization cs50ai3 Optimization 基础知识 课后题目 代码实践 学习链接 总结 基础知识 这节课主要讲了一些优化问题对应的算法求解,其实具体使用时还是需要具体分析,看哪些问题能够转化为我们学习的算法能够求解的形式 local search与hill 阅读全文
摘要:
cs50ai2 Uncertainty cs50ai2 Uncertainty 基础知识 课后题目 代码实践 学习链接 总结 基础知识 在这节课中,前面主要介绍了一些概率论的基础知识,比如说条件概率、贝叶斯规则、联合概率以及一些概率公式等等 贝叶斯规则: 概率公式: 接着介绍了贝叶斯网络 它是用来表 阅读全文
摘要:
# ****cs50ai1 Knowledge**** - [****cs50ai1 Knowledge****](#cs50ai1 knowledge) - [基础知识](#基础知识) - [课后题目](#课后题目) - [代码实践](#代码实践) - [学习链接](#学习链接) - [总结](# 阅读全文
摘要:
# ****cs50ai0 Search**** - [****cs50ai0 Search****](#cs50ai0 search) - [基础知识](#基础知识) - [课后题目](#课后题目) - [代码实践](#代码实践) - [学习链接](#学习链接) - [总结](#总结) ### 基 阅读全文