摘要: 二、方法二 自定路径+txt内写入的路径 txt内容,前面是图片路径,后面是label类别 生成txt代码 数据加载 阅读全文
posted @ 2019-09-05 10:50 X18301096 阅读(689) 评论(0) 推荐(0) 编辑
摘要: 参考:迁移学习——Fine-tune 一、迁移学习 就是把已训练好的模型参数迁移到新的模型来帮助新模型训练。 模型的训练与预测: 深度学习的模型可以划分为 训练 和 预测 两个阶段。 训练 分为两种策略:一种是白手起家从头搭建模型进行训练,一种是通过预训练模型进行训练。 预测 相对简单,直接用已经训 阅读全文
posted @ 2019-08-28 11:53 X18301096 阅读(4266) 评论(0) 推荐(2) 编辑
摘要: 参考:清华源失效后如何安装pytorch1.01 GPU版本的安装指令为: 这里使用这个命令只是为了让Conda自动解决安装pytorch时候的依赖 阅读全文
posted @ 2019-08-25 10:27 X18301096 阅读(3350) 评论(0) 推荐(0) 编辑
摘要: 一.npy输入数据格式 数据文件夹组织形式 图像数据解码 data_load.py 二.TFRecord输入数据格式 将数据写成TFRecord格式 TFRecord_write.py 读取TFRecord数据格式 三.tf.dataset 在数据集框架中,每个数据集代表一个数据来源;数据可能来自一 阅读全文
posted @ 2019-07-24 20:57 X18301096 阅读(561) 评论(0) 推荐(0) 编辑
摘要: 一、分类损失 1、交叉熵损失函数 公式: 交叉熵的原理 交叉熵刻画的是实际输出(概率)与期望输出(概率)的距离,也就是交叉熵的值越小,两个概率分布就越接近。假设概率分布p为期望输出,概率分布q为实际输出,H(p,q)为交叉熵,则: 有这样一个定理:当p=q时,交叉熵去的最小值.因此可以利用交叉熵比较 阅读全文
posted @ 2019-07-01 14:12 X18301096 阅读(2115) 评论(0) 推荐(0) 编辑
摘要: 一、定义 类别不平衡是指分类任务中不同类别的训练样例数目差别很大的情况。 二、问题:从线性分类器角度讨论,用y = wTx+b对新样本x进行分类,事实上是用预测出的y值与一个阈值进行比较,例如通常在y>0.5时判别为正例,否则为反例。y表达的是正例的可能性,几率y/1-y反映了正例可能性与反例可能性 阅读全文
posted @ 2019-06-28 10:36 X18301096 阅读(499) 评论(0) 推荐(0) 编辑
摘要: 一、可视化比较 1、示例一 上图描述了在一个曲面上,6种优化器的表现,从中可以大致看出:① 下降速度:三个自适应学习优化器Adagrad、RMSProp与AdaDelta的下降速度明显比SGD要快,其中,Adagrad和RMSProp齐头并进,要比AdaDelta要快。两个动量优化器Momentum 阅读全文
posted @ 2019-06-27 10:55 X18301096 阅读(2503) 评论(0) 推荐(0) 编辑
摘要: 一、梯度下降法 1、标准梯度下降法(GD) 公式:Wt+1=Wt−ηtΔJ(Wt) 其中,WtWt表示tt时刻的模型参数。 从表达式来看,模型参数的更新调整,与代价函数关于模型参数的梯度有关,即沿着梯度的方向不断减小模型参数,从而最小化代价函数。 基本策略可以理解为”在有限视距内寻找最快路径下山“, 阅读全文
posted @ 2019-06-27 10:12 X18301096 阅读(1395) 评论(0) 推荐(0) 编辑
摘要: 参考:https://www.cnblogs.com/houjun/p/10275215.html https://www.jianshu.com/p/f743bd9041b3 一、含义 空洞卷积是在标准的卷积核里注入空洞,以此来增加感受野/接受域。相比原来的正常卷积运算,空洞卷积 多了一个 超参数 阅读全文
posted @ 2019-03-26 09:31 X18301096 阅读(2294) 评论(0) 推荐(0) 编辑
摘要: 真实1 真实0 预测1 TRUE Positive(TP)真阳性 FALSE Positive(FP)假阳性 预测0 False Negative(FN)假阴性 True Negative(TN)真阴性 查准率(precision),指的是预测值为1且真实值也为1的样本在预测值为1的所有样本中所占的 阅读全文
posted @ 2019-03-14 09:39 X18301096 阅读(3126) 评论(0) 推荐(0) 编辑