上一页 1 ··· 14 15 16 17 18 19 20 21 22 ··· 28 下一页
摘要: class BasicBlockGroup(nn.Module): expansion = 1 def __init__(self, in_planes, planes, stride=1, groups=2, bn=False): super(BasicBlockGroup, self).__in 阅读全文
posted @ 2021-09-03 17:58 哈哈哈喽喽喽 阅读(7) 评论(0) 推荐(0) 编辑
摘要: class Bottleneck(nn.Module): expansion = 4 def __init__(self, in_planes, planes, stride=1): super(Bottleneck, self).__init__() self.conv1 = nn.Conv2d( 阅读全文
posted @ 2021-09-03 17:58 哈哈哈喽喽喽 阅读(26) 评论(0) 推荐(0) 编辑
摘要: class BasicBlock(nn.Module): expansion = 1 def __init__(self, in_planes, planes, stride=1, bn=False): super(BasicBlock, self).__init__() self.conv1 = 阅读全文
posted @ 2021-09-03 17:57 哈哈哈喽喽喽 阅读(7) 评论(0) 推荐(0) 编辑
摘要: PyTorch学习率调整策略通过torch.optim.lr_scheduler接口实现。PyTorch提供的学习率调整策略分为三大类,分别是 有序调整:等间隔调整(Step),按需调整学习率(MultiStep),指数衰减调整(Exponential)和 余弦退火CosineAnnealing。 阅读全文
posted @ 2021-08-31 21:30 哈哈哈喽喽喽 阅读(201) 评论(0) 推荐(0) 编辑
摘要: https://pytorch.org/docs/stable/generated/torch.optim.SGD.html?highlight=sgd#torch.optim.SGD、 其中weight_decay 参数作用是在SGD中增加的l2的惩罚项 阅读全文
posted @ 2021-08-31 21:18 哈哈哈喽喽喽 阅读(184) 评论(0) 推荐(0) 编辑
摘要: #结论:适用于输入和网络结构不变的场景,加速训练使用# #一般和定义net之后设置 一起使用net = torch.nn.DataParallel(net)# 大家在训练深度学习模型的时候,经常会使用 GPU 来加速网络的训练。但是说起 torch.backends.cudnn.benchmark 阅读全文
posted @ 2021-08-31 20:21 哈哈哈喽喽喽 阅读(251) 评论(0) 推荐(0) 编辑
摘要: https://zhuanlan.zhihu.com/p/161852417 阅读全文
posted @ 2021-08-30 18:36 哈哈哈喽喽喽 阅读(12) 评论(0) 推荐(0) 编辑
摘要: 目标:设计一个神经网络,可以处理原始的信息(车上部署的8颗摄像头),转变为3维向量空间信息(该空间可用于自动驾驶),该3维空间包括lines, edges, curbs, traffic signs, traffic lights, car 位置,朝向, 距离, 速度。 效果展示,下图1就是图像输入 阅读全文
posted @ 2021-08-27 10:08 哈哈哈喽喽喽 阅读(260) 评论(0) 推荐(0) 编辑
摘要: 1、链接:https://pan.baidu.com/s/130bIEVv884TClEqIdKIgHw 提取码:j3rr 2、链接:https://www.aliyundrive.com/s/2cbF9u7z7v2 推荐楼 SAJ 11小时前 27就大结局了 3楼 aika108 11小时前 好像 阅读全文
posted @ 2021-08-21 15:29 哈哈哈喽喽喽 阅读(213) 评论(0) 推荐(0) 编辑
摘要: https://zhuanlan.zhihu.com/p/371379774 阅读全文
posted @ 2021-08-16 16:26 哈哈哈喽喽喽 阅读(11) 评论(0) 推荐(0) 编辑
上一页 1 ··· 14 15 16 17 18 19 20 21 22 ··· 28 下一页