摘要: 第二次作业:卷积神经网络 part 2 【第一部分】 问题总结 在编写网络的时候,bn层是否可以无脑添加?什么时候添加bn层比较好? conv层的padding,stride怎么计算?什么时候stride=1什么时候=2 有些混乱。。 数据处理时 transforms.Normalize((0.13 阅读全文
posted @ 2020-08-08 18:18 码我疯狂的码 阅读(296) 评论(1) 推荐(0) 编辑
摘要: 1. 视频学习心得及问题总结 深度学习的数学基础(链接) 卷积神经网络(链接) ResNet代码实现(链接) 2. 代码练习 MNIST 数据集分类(链接) CIFAR10 数据集分类(链接) 猫狗大战(在第一次作业中) 3. 展望学习 GoogLeNet学习(链接) MobileNets学习(链接 阅读全文
posted @ 2020-08-01 14:40 码我疯狂的码 阅读(175) 评论(0) 推荐(0) 编辑
摘要: 鉴于最近大量使用Typora和Latex整理笔记,频繁输入公式总是有些繁琐。 鉴于自己的情况写了一个简单AHK公式替换程序,持续更新ing(随时鸽) 使用说明: F1->自动输入行内公式 F2->自动输入段内公式 matrix[->替换段内[]矩阵框(需要在段内公式或行内公式内使用) matrix( 阅读全文
posted @ 2020-07-26 15:47 码我疯狂的码 阅读(999) 评论(0) 推荐(1) 编辑
摘要: 深度学习及pytorch基础小结 视频学习:链接 代码练习: 1、 pytorch基础 定义数据(使用torch.Tensor) import torch x = torch.tensor(666) '''tensor(666)''' x = torch.tensor([1,2,3,4,5,6]) 阅读全文
posted @ 2020-07-25 12:57 码我疯狂的码 阅读(460) 评论(1) 推荐(0) 编辑
摘要: 深度学习 特征提取、物体检测、语义标注、实体标注、描述生成、多媒体问答、多媒体叙事 深度学习的”不能“ 算法输出不稳定,容易被”攻击“ 比如在一个图片中改变一个像素值,就可能导致识别天差地别。 模型复杂度高,难以纠错和调试 (李世石和alphogo) 模型层级复合程度高,参数不透明 端到端训练方式对 阅读全文
posted @ 2020-07-21 11:17 码我疯狂的码 阅读(261) 评论(0) 推荐(0) 编辑
摘要: (1) 为什么选择读研 距离去年的考研生活已经过去将近一年的时间了。去年大概是三月份决定的要考研,对于我来说,本科的知识并不能满足我的需求,或者说,在本科期间我并没有真正的找到方向。虽然跟着导师组做过许许多多的项目,但是也只是对零碎知识的学习与实践,真正感兴趣的东西,在本科期间并没有完全的确定下来, 阅读全文
posted @ 2020-07-17 23:34 码我疯狂的码 阅读(238) 评论(1) 推荐(1) 编辑