摘要: 阅读全文
posted @ 2019-07-21 11:28 赤热之冰 阅读(13) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2019-07-21 11:22 赤热之冰 阅读(3) 评论(0) 推荐(0) 编辑
摘要: 安装pytorch 登录官网:https://pytorch.org/ 选择配置,下方自动显示安装命令。 执行安装命令,安装成功。这安装体验简直666。 检查是否安装成功 返回Ture表示OK。 安装Detectron 克隆Detectron仓库:git clone https://github.c 阅读全文
posted @ 2019-07-21 00:25 赤热之冰 阅读(94) 评论(0) 推荐(0) 编辑
摘要: 本视频跟随kevin学习猫狗大战项目。 深度学习过程: 数据集: [包含训练(25000张猫狗照片)和测试数据集(12500张猫狗照片)] 可到kaggle下载 教程路径:https://www.youtube.com/channel/UCVCSn4qQXTDAtGWpWAe4Plw/videos 阅读全文
posted @ 2019-06-17 23:07 赤热之冰 阅读(88) 评论(0) 推荐(0) 编辑
摘要: 有了TF Girls课程的经验,再看MNIST就简单多了。 详细讲解参考极客学院教程 深入MNIST: http://wiki.jikexueyuan.com/project/tensorflow-zh/tutorials/mnist_pros.html 测试结果99.29%,和教程中一致。 阅读全文
posted @ 2019-06-16 20:50 赤热之冰 阅读(44) 评论(0) 推荐(0) 编辑
摘要: 测试准确率平均为90%左右。 增加单张图片预测打印,结果如下。前4张为预测正确的,后4张为预测错误的。 最后一张预测错误比较意外,很明显是9。 查看过程数据,9的概率只有0.24, 0、1、3、4、6概率都比9要高。 Test Accuracy: 0.0%predict_labels= [[3.47 阅读全文
posted @ 2019-06-16 17:32 赤热之冰 阅读(141) 评论(0) 推荐(0) 编辑
摘要: 模型可视化,可以点开看每个节点内部的处理过程和数据流向。 训练100000次。 loss收敛如下,趋近于0.2 中间那条斜线太刺眼了,不知道哪来的。。。 权重和偏置在不断变化,说明训练过程确实对其做了修改。 还不太明白怎么分析这个图形,待以后学习。 阅读全文
posted @ 2019-06-16 17:15 赤热之冰 阅读(35) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/u011311291/article/details/82763093 阅读全文
posted @ 2019-06-16 16:08 赤热之冰 阅读(18) 评论(0) 推荐(0) 编辑
摘要: 代码: 打印: 对于LOSS,我的理解如下,反过来理解: softmax值域范围为(0,1),训练目的要求分类概率趋近于1(如图红线所示),即要求y=log(x) 趋近于0(如图蓝线所示); 所以训练过程就是寻找y的最小值,y值即为loss,即寻找loss的最小值,具体怎么去寻找,交给模型去做了。 阅读全文
posted @ 2019-06-16 12:47 赤热之冰 阅读(82) 评论(0) 推荐(0) 编辑
摘要: train_batch_size=641批次为64张图片 input samples.shape= (64, 32, 32, 1)输入数据64张图片,图片大小32x32,通道数1(加载图片后已进行灰度化: 从三色通道 -> 单色通道) input labels.shape= (64, 10)输入64 阅读全文
posted @ 2019-06-14 21:18 赤热之冰 阅读(101) 评论(0) 推荐(0) 编辑