贪心学院计算机视觉CV训练营
贪心学院计算机视觉CV训练营
任务 | Notes | 其他 |
---|---|---|
任务1:机器学习、深度学习简介 | Note1 | |
任务2:深度学习的发展历史 | Note2 | |
任务3:现代深度学习的典型例子 | Note3 | |
任务4:深度学习在计算机视觉中的应用 | Note4 | |
任务5:深度学习的总结 | Note5 | |
任务6:开发环境的配置 | Note6 | |
任务7:GPU驱动程序安装 | Note7 | |
任务8:CUDA的安装 | Note8 | |
任务9:cuDNN的安装 | Note9 | |
任务10:问答环节 | Note10 | |
任务11:环境安装 | Note11 | |
任务12:二元分类问题 | Note12 | |
任务13:逻辑函数 | Note13 | |
任务14:指数与对数、逻辑回归 | Note14 | |
任务15:示例 | Note15 | |
任务16:损失函数 | Note16 | |
任务17:损失函数推演 | Note17 | |
任务18:梯度下降法 | Note18 | |
任务19:应用 | Note19 | |
任务20:直播答疑 | Note20 | |
任务21:自动驾驶方向盘预测论文分析 | Note21 | |
任务22:使用PyCharm Keras建立深度网络模型 | Note22 | |
任务23:数据预处理 数据增强 | Note23 | |
任务24:建立BatchGenerator高效读取数据 | Note24 | |
任务25:训练网络 保存训练的中间过程数据 | Note25 | |
任务26:查看网络训练过程 判断网络是否过拟合 欠拟合 |
Note26 | |
任务27:神经网络分类问题的经典数据(集鸢尾花数据集)介绍, 神经网络Python库Keras的介绍 |
Note27 | |
任务28:使用Pandas读取鸢尾花数据集, 使用LabelEncoder对类别标签进行编码 |
Note28 | |
任务29:使用Keras创建一个用于鸢尾花分类识别的神经网络 | Note29 | |
任务30:训练用于鸢尾花分类的神经网络, 解读训练输出的日志,了解如何评价神经网络的性能 |
Note30 | |
任务31:神经网络数学原理(1): 神经网络的结点,权值,激活函数 |
Note31 | |
任务32:神经网络数学原理(2): 神经网络的前馈(Feed Forward)算法 |
Note32 | |
任务33:神经网络数学原理(3): 神经网络的前馈(Feed Forward)算法续, Softmax层的数值问题 |
Note33 | |
任务34:神经网络数学原理(4): 神经网络BP(误差反向传播)算法 |
Note34 | |
任务35:神经网络数学原理(5): 神经网络BP(误差反向传递)算法续 |
Note35 | |
任务36:神经网络数学原理(6): 手动演算神经网络BP算法(误差向后传递) |
Note36 | |
任务37:神经网络数学原理(7): 手动演算神经网络BP算法(误差向后传递)续 |
Note37 | |
任务38:Neural.Network.Loss-直播01 | Note38 | |
任务39:Neural.Network.Loss-直播02 | Note39 | |
任务40:Neural.Network.Loss-直播03 | Note40 | |
任务41:梯度消亡 | Note41 | |
任务42:梯度消亡问题分析 | Note42 | |
任务43:梯度消亡解决方案 | Note43 | |
任务44:过拟合 | Note44 | |
任务45:DropOut训练 | Note45 | |
任务46:正则化 | Note46 | |
任务47:最大范数约束 神经元的初始化 | Note47 | |
任务48:作业讲解与答疑-01 | Note48 | |
任务49:作业讲解与答疑-02 | Note49 | |
任务50:为什么需要递归神经网络? | Note50 | |
任务51:递归神经网络介绍 | Note51 | |
任务52:语言模型 | Note52 | |
任务53:RNN的深度 | Note53 | |
任务54:梯度爆炸和梯度消失 | Note54 | |
任务55:Gradient Clipping | Note55 | |
任务56:LSTM的介绍 | Note56 | |
任务57:LSTM的应用 | Note57 | |
任务58:Bi-Directional LTSM | Note58 | |
任务59:Gated Recurrent Unit | Note59 | |
任务60:机器翻译 | Note60 | |
任务61:Multimodal Learning | Note61 | |
任务62:Seq2Seq模型 | Note62 | |
任务63:回顾RNN与LSTM | Note63 | |
任务64:Attention for Image Captioning | Note64 | |
任务65:Attention for Machine Translation | Note65 | |
任务66:Self-Attention | Note66 | |
任务67:Attention总结 | Note67 | |
任务68:neural network optimizer直播-01 | Note68 | |
任务69:neural network optimizer直播-02 | Note69 | |
任务70:neural network optimizer直播-03 | Note70 | |
任务71:项目介绍 | Note71 | |
任务72:看图说话任务一-01 | Note72 | |
任务73:看图说话任务一-02 | Note73 | |
任务74:看图说话任务一-03 | Note74 | |
任务75:任务介绍 | Note75 | |
任务76:如何实现 load_img_as_np_array 这个函数 | Note76 | |
任务77:如何实现“load_vgg16_model”函数 | Note77 | |
任务78:如何实现“extract_features”函数 | Note78 | |
任务79:创建Tokenizer 01 | Note79 | |
任务80:创建Tokenizer02 | Note80 | |
任务81:产生模型需要的输入数据01 | Note81 | |
任务82:产生模型需要的输入数据02 | Note82 | |
任务83:任务的概述 | Note83 | |
任务84:Input Embedding和Dropout层介绍 | Note84 | |
任务85:LSTM Add层的介绍 | Note85 | |
任务86:如何训练模型 | Note86 | |
任务87:如何使用深度神经网络模型做预测 产生标题 完成generate_caption函数01 |
Note87 | |
任务88:如何使用深度神经网络模型做预测 产生标题 完成generate_caption函数02 | Note88 | |
任务89:如何调用generate_caption函数 | Note89 | |
任务90:如何评价标题生成模型的性能 | Note90 | |
任务91:读取和显示数字图像 | Note91 | |
任务92:数字图像大小缩放 | Note92 | |
任务93:数字图像直方图均衡 | Note93 | |
任务94:图像去噪声 | Note94 | |
任务95:图像边缘检测 | Note95 | |
任务96:图像关键点检测 | Note96 | |
任务97:道路行车道检测简介 | Note97 | |
任务98:Canny边缘检测 | Note98 | |
任务99:霍夫变换用于直线检测 | Note99 | |
任务100:道路行车道检测代码讲解 | Note100 | |
任务101:在图像和视频上面演示道路行车道检测 | Note101 | |
任务102:项目介绍 | Note102 | |
任务103:交通指示牌识别的简介 | Note103 | |
任务104:交通指示牌识别课程的编程任务 | Note104 | |
任务105:如何分析数据 (util.py 的详细介绍) | Note105 | |
任务106:如何预处理图像数据、建立神经网络模型、 训练网络模型 (train.py 的详细介绍)01 |
Note106 | |
任务107:如何预处理图像数据、建立神经网络模型、 训练网络模型 (train.py 的详细介绍)02 |
Note107 | |
任务108:色彩空间转换 | Note108 | |
任务109:直方图均衡 | Note109 | |
任务110:图像标准化 | Note110 | |
任务111:使用ImageDataGenerator做图像增强 | Note111 | |
任务112:作业上传的要求 | Note112 | |
任务113:介绍经典交通指示牌卷积神经网络模型 | Note113 | |
任务114:代码实现经典交通指示牌识别卷积神经网络模型 | Note114 | |
任务115:卷积神经网络的数学原理01 | Note115 | |
任务116:卷积神经网络的数学原理02 | Note116 | |
任务117:深度学习调参-直播-01 | Note117 | |
任务118:深度学习调参-直播-02 | Note118 | |
任务119:深度学习调参-直播-03 | Note119 | |
任务120:卷积层的启发 | Note120 | |
任务121:卷积层的定量分析 | Note121 | |
任务122:单通道输入 单通道输出的卷积层的实例 | Note122 | |
任务123:多通道输入 多通道输出的卷积层的实例 | Note123 | |
任务124:池化层的原理 定量分析 | Note124 | |
任务125:卷积神经网络和全连接神经网络的比较 | Note125 | |
任务126:卷积神经网络在围棋 语言识别和自然语言处理中的应用 | Note126 | |
任务127:基于深度学习的图像分类历史回顾 | Note127 | |
任务128:AlexNet的结构分析 | Note128 | |
任务129:ZFNet的结构分析 | Note129 | |
任务130:VGG的结构分析 | Note130 | |
任务131:GoogleNet Inception的结构分析 | Note131 | |
任务132:Inception V3的结构分析 | Note132 | |
任务133:ResNet的结构分析 | Note133 | |
任务134:ResNet的代码实现 | Note134 | |
任务135:基于内容的图像搜索理论基础 | Note135 | |
任务136:基于去噪自动编码器的图像搜索代码实现 | Note136 | |
任务137:使用卷积神经网络进行语义图像嵌入 在目标检测 自动驾驶 图像超分辨率重构 工业探伤等等领域的应用 |
Note137 | |
任务138:项目1-看图说话(助教)讲解和答疑-01 | Note138 | |
任务139:项目1-看图说话(助教)讲解和答疑-02 | Note139 | |
任务140:项目介绍www.rejoiceblog.com | Note140 | |
任务141:自动驾驶方向盘转动方向预测的背景知识 | Note141 | |
任务142:如何收集训练数据 | Note142 | |
任务143:理解分析训练数据 | Note143 | |
任务144:自动驾驶方向盘转动方向预测的网络结构和网络训练代码讲解 | Note144 | |
任务145:提高网络性能的思路 图像处理、数据增强、网络结构优化 | Note145 | |
任务146:探索数据01 | Note146 | |
任务147:探索数据02 | Note147 | |
任务148:图像增强01 | Note148 | |
任务149:图像增强02 | Note149 | |
任务150:解决数据不平衡的问题 DataGenerator的应用 | Note150 | |
任务151:网络结构实例 | Note151 | |
任务152: 图像增强部分的代码讲解 | Note152 | |
任务153:DataGenerator部分的代码讲解 | Note153 | |
任务154:网络结构实现部分的代码讲解 | Note154 | |
任务155:方向盘转动方向预测网络模型的性能评估方法 | Note155 | |
任务156:使用模拟器定性的判断网络性能的方法以及代码讲解 | Note156 | |
任务157:模拟器自动驾驶的展示 | Note157 | |
任务158:通过损失函数的变化判断网络性能、识别和解决过拟合和欠拟合的问题 | Note158 | |
任务159:如何安装Python连接模拟器的Python 库 | Note159 | |
任务160:windows 下面使用自动驾驶模拟器的教程 | Note160 | |
任务161:mac 下面使用自动驾驶模拟器的教程 | Note161 | |
任务162:目标识别综述 | Note162 | |
任务163:基于HOG(梯度直方图)的目标识别 | Note163 | |
任务164:Non-Max Suppression IoU 和 Hard Negative Mining | Note164 | |
任务165:R-CNN的工作原理 | Note165 | |
任务166:R-CNN中的边界框(Bounding Box)预测原理 | Note166 | |
任务167:R-CNN的不足之处 | Note167 | |
任务168:Fast R-CNN详解 | Note168 | |
任务169:Faster R-CNN Region Proposal Network | Note169 | |
任务170:R-CNN Fast R-CNN Faster R-CNN的总结 | Note170 | |
任务171:目标识别 R-CNN家族的回顾 | Note171 | |
任务172:SSD的简介 SSD与R-CNN的比较 | Note172 | |
任务173:SSD的网络结构(1) | Note173 | |
任务174:如何使用卷积作为最后的预测层 | Note174 | |
任务175:SSD的训练过程 | Note175 | |
任务176:SSD的实验结果分析 | Note176 | |
任务177:VGG16到SSD网络的演化 L2Normalization层的实现 | Note177 | |
任务178:SSD各个技术对失败率的影响 Atrous卷积层的原理 | Note178 | |
任务179:使用卷积作为最后的预测层详解 | Note179 | |
任务180:SSD定位损失函数详解 | Note180 | |
任务181:SSD中Anchor尺寸 宽高比 中心位置的确定 | Note181 | |
任务182:SSD中分类损失函数详解 | Note182 | |
任务183:Non-Max Suppression的原理 | Note183 | |
任务184:SSD和YOLO的比较 SSD的总结 | Note184 | |
任务185:图像分割简介 | Note185 | |
任务186:基于深度学习的图像分割U-Net的原理 | Note186 | |
任务187:Transposed Convolution原理与运用 | Note187 | |
任务188:U-Net的代码讲解 | Note188 | |
任务189:图像生成的原理 | Note189 | |
任务190:使用深度学习自动图像生成手写数字的代码讲解 | Note190 | |
任务191:图像风格转移的原理 | Note191 | |
任务192:使用深度学习实现图像风格转移的代码讲解 | Note192 | |
任务193:SSD的原理回顾 | Note193 | |
任务194:编程项目的训练数据介绍 | Note194 | |
任务195:对SSD模型对产生Anchor有影响的参数讲解 | Note195 | |
任务196:对候选框精选处理有影响的参数讲解 | Note196 | |
任务197:对输入模型参数的合法性检测和转换 | Note197 | |
任务198:具有7层的SSD的网络结构讲解 | Note198 | |
任务199:编译模型 使用模型做预测 | Note199 | |
任务200:SSD解码的实现 | Note200 | |
任务201:帮助函数IoU 坐标转换 SSD损失函数 Non-Max-Suppression的实现 |
Note201 | |
任务202:二值化神经网络的简介 | Note202 | |
任务203:二值化网络的前向后向传播 梯度计算原理www.rejoiceblog.com | Note203 | |
任务204:二值化网络的训练算法 | Note204 | |
任务205:二值化网络的实验结果 | Note205 | |
任务206:二值化全连接网络的代码讲解 | Note206 | |
任务207:DropoutNoScale层的实现 | Note207 | |
任务208:BinaryDense层的实现 | Note208 | |
任务209:二值化卷积神经网络的代码讲解 | Note209 | |
任务210:项目作业要求 | Note210 | |
任务211:神经网络在实际应用中面临的挑战 轻量级深度神经网络的必要性 | Note211 | |
任务212:MobileNet Depthwise Seperable Convolution的原理计算量分析 | Note212 | |
任务213:ShuffleNet Group Convolution Channel Shuffle的原理 | Note213 | |
任务214:EffNet Spatial Seperable Convolution的原理计算量分析和实验效果 | Note214 | |
任务215:lightweight-network答疑时间 | Note215 | |
任务216:回顾EffNet的原理 | Note216 | |
任务217:EffNet的代码讲解 | Note217 | |
任务218:One-Shot Learning 的意义和工作原理 | Note218 | |
任务219:用于One-Shot Learning 的Siamese 深度神经网络的介绍 | Note219 | |
任务220:Siamese 深度神经网络的实验和结果分析 | Note220 | |
任务221:Transposed Convolution 的应用 算法回顾 以及使用矩阵乘法实现 | Note221 | |
任务222:Transposed Convolution 的梯度推导 | Note222 | |
任务223:将卷积核转换为Toeplitz Matrix用于矩阵乘法实现Transposed | Note223 | |
任务224:同学对课程的效果反馈调查 | Note224 | |
任务225:使用 Siamese 网络做门禁卡系统的入门介绍 数据集的介绍 | Note225 | |
任务226:PyTorch 基础教程 | Note226 | |
任务227:Siamese One-Shot learning 知识回顾 | Note227 | |
任务228:使用 PyTorch torchvision 库高效读取数据 | Note228 | |
任务229:使用 PyTorch 定义 Siamese 网络结构 | Note229 | |
任务230:使用 PyTorch 写训练网络的代码 | Note230 | |
任务231:使用 PyTorch 写测试网络的代码 | Note231 | |
Talk is cheap. Show me the code