上一页 1 ··· 12 13 14 15 16 17 18 19 20 ··· 27 下一页
摘要: 不用Sigmoid,现在用relu啦 relu: Sigmoid: Sigmoid 和 Softmax 区别: 二分类问题时它们一样,而 softmax 可以用于多分类问题 阅读全文
posted @ 2021-07-21 09:58 ice猫猫3 阅读(262) 评论(0) 推荐(0) 编辑
摘要: 卷积conv 全连接fc(full connected) 不算POOLing、LRN、softmax(通常用relu的),可能是因为: 参数太少。像relu、pool这样的层参数量太少,有的甚至如激活层relu不保存中间结果直接给下一层; 计算量小。相比conv甚至fc,pool这些层的计算量太少。 阅读全文
posted @ 2021-07-21 09:46 ice猫猫3 阅读(37) 评论(0) 推荐(0) 编辑
摘要: 一条龙服务 一个典型的机器学习构建包含若干个过程,pytorch中有好多包进行调用的吧~~~~~ 1、源数据ETL 2、数据预处理 3、特征选取 4、模型训练与验证 以上四个步骤可以抽象为一个包括多个步骤的流水线式工作,从数据收集开始至输出我们需要的最终结果。因此,对以上多个步骤、进行抽象建模,简化 阅读全文
posted @ 2021-07-21 09:40 ice猫猫3 阅读(78) 评论(0) 推荐(0) 编辑
摘要: 在别人的网络上微微改动①去尾巴,得特征,换线性分类器②去尾巴和一点卷积层,得泛化特征 以下是常见的两类迁移学习场景: 1 卷积网络当做特征提取器。 拿掉全连接层,剩余部分当做特征提取器 这样提取的特征叫做CNN codes。 再线性分类器(Liner SVM、Softmax等)来分类图像。 2 Fi 阅读全文
posted @ 2021-07-21 09:14 ice猫猫3 阅读(419) 评论(0) 推荐(0) 编辑
摘要: localization是找到某个物体的检测框 detection是找到所有物体的检测框 阅读全文
posted @ 2021-07-21 08:37 ice猫猫3 阅读(224) 评论(0) 推荐(1) 编辑
摘要: 背景:当我们输入一张图片时,我们要搜索出所有可能是物体的区域,搜出的候选框是矩形的,而且是大小各不相同。因此对于每个输入的候选框都需要缩放到相同的大小。 各向异性缩放:直接拉伸,扭曲了 整变异了 各项同性缩放:看链接 阅读全文
posted @ 2021-07-20 17:35 ice猫猫3 阅读(368) 评论(0) 推荐(0) 编辑
摘要: L2正则化倾向于使网络的权值接近0(L2正则化实质上是对权值做线性衰减)。这会使前一层神经元对后一层神经元的影响降低,使网络变得简单,降低网络的有效大小,降低网络的拟合能力。 正则化的目的:限制参数过多或者过大,避免模型更加复杂。例如,使用多项式模型,如果使用 10 阶多项式,模型可能过于复杂,容易 阅读全文
posted @ 2021-07-20 09:57 ice猫猫3 阅读(136) 评论(0) 推荐(0) 编辑
摘要: 正则化是解决高方差问题的重要方案之一,也是Reducing Overfiltering(克服过拟合)的方法。 过拟合一直是DeepLearning的大敌,它会导致训练集的error rate非常小,而测试集的error rate大部分时候很大。网络的拟合能力随之降低,这会使网络不容易过拟合到训练集。 阅读全文
posted @ 2021-07-20 09:39 ice猫猫3 阅读(249) 评论(0) 推荐(0) 编辑
摘要: ****数组 arrli****st:可以放不同类型的数据 list****:可以放不同类型的数据 ↓看不太懂 https://blog.csdn.net/dibengshao7358/article/details/102209871 阅读全文
posted @ 2021-07-15 22:11 ice猫猫3 阅读(74) 评论(0) 推荐(0) 编辑
摘要: 梁老板写的教程 配置好以后,点击下图中的打开文件小图标即可使用虚拟环境 环境选择pytorch_env,里面的包都装好了 平时有文件,可以直接拖到远程调试的那个界面里面 ① ② ③ ④ ⑤ ⑥ 阅读全文
posted @ 2021-07-15 11:41 ice猫猫3 阅读(143) 评论(0) 推荐(0) 编辑
上一页 1 ··· 12 13 14 15 16 17 18 19 20 ··· 27 下一页