摘要: Adam 是一种可以替代传统随机梯度下降(SGD)过程的一阶优化算法,它能基于训练数据迭代地更新神经网络权重。Adam 最开始是由 OpenAI 的 Diederik Kingma 和多伦多大学的 Jimmy Ba 在提交到 2015 年 ICLR 论文(Adam: A Method for Sto 阅读全文
posted @ 2021-11-03 15:11 Tomorrow1126 阅读(663) 评论(0) 推荐(0) 编辑
摘要: ,本文的context Encoders需要填补一个大面积的缺失,不能从附近像素中获得提示,需要更深的语义理解,并需要在大空间范围内综合高级特征的能力。 context Encoders以完全无监督的方式训练。图像修复的任务本质上是一个multi-model,有多种方式填补缺失区域同时需要维持和给定 阅读全文
posted @ 2021-11-03 14:36 Tomorrow1126 阅读(479) 评论(0) 推荐(0) 编辑
摘要: 1、正确答案 2、真实值 3、正确的标注 阅读全文
posted @ 2021-11-03 13:48 Tomorrow1126 阅读(102) 评论(0) 推荐(0) 编辑
摘要: 1. Thing 事物,东西 ,(词义广泛) 例: What thing is that on the floor? 地板上是什么东西? The first thing to do is have dinner. 第一件事就是吃饭。 2. stuff 材料, 原料,(非正式, 不明事物)东西 例: 阅读全文
posted @ 2021-11-03 11:27 Tomorrow1126 阅读(1497) 评论(0) 推荐(0) 编辑
摘要: 1、流程图: 2、通过用object layout network来预测分割掩码和每个物体的bounding box,从而计算出scene layout场景布局。mask regression network and box regression network 3、在这两个数据集上进行实验:Vis 阅读全文
posted @ 2021-11-03 11:25 Tomorrow1126 阅读(56) 评论(0) 推荐(0) 编辑
摘要: 什么是正则化?在机器学习中,我们非常关心模型的预测能力,即模型在新数据上的表现,而不希望过拟合现象的的发生,我们通常使用正则化(regularization)技术来防止过拟合情况。正则化是机器学习中通过显式的控制模型复杂度来避免模型过拟合、确保泛化能力的一种有效方式。如果将模型原始的假设空间比作“天 阅读全文
posted @ 2021-11-03 11:08 Tomorrow1126 阅读(901) 评论(0) 推荐(0) 编辑
摘要: L1,L2以及Smooth L1是深度学习中常见的3种损失函数,这3个损失函数有各自的优缺点和适用场景。 https://blog.csdn.net/vv___/article/details/116396475?spm=1001.2101.3001.6650.1&utm_medium=distri 阅读全文
posted @ 2021-11-03 10:59 Tomorrow1126 阅读(130) 评论(0) 推荐(0) 编辑