上一页 1 ··· 9 10 11 12 13 14 15 16 17 ··· 20 下一页
摘要: 写python代码时候,如:A = 0,B = A,B = 1, 有时候会发现A变成了1,那么怎么办呢? 以下是伪代码: 这样无论怎么折腾X_, X的值都不会变了 阅读全文
posted @ 2019-10-30 17:20 牛郎 阅读(808) 评论(0) 推荐(0) 编辑
摘要: import numpy as np import sklearn from sklearn.manifold import TSNE import cv2 # Random state. RS = 20150101 import pandas as pd import matplotlib.pyp 阅读全文
posted @ 2019-10-30 15:46 牛郎 阅读(1222) 评论(0) 推荐(0) 编辑
摘要: 如: 阅读全文
posted @ 2019-10-29 14:25 牛郎 阅读(375) 评论(0) 推荐(0) 编辑
摘要: 在网上找到的Auto-keras API详解,非常全面,防止丢失记录在这! Auto-Keras API详解(1)——安装Auto-Keras https://blog.csdn.net/weixin_42499236/article/details/84306367 Auto-Keras API详 阅读全文
posted @ 2019-10-29 10:47 牛郎 阅读(401) 评论(0) 推荐(0) 编辑
摘要: 用keras训练模型并实时显示loss/acc曲线,(重要的事情说三遍:实时!实时!实时!)实时导出loss/acc数值(导出的方法就是实时把loss/acc等写到一个文本文件中,其他模块如前端调用时可直接读取文本文件),同时也涉及了plt画图方法 ps:以下代码基于网上的一段程序修改完成,如有侵权 阅读全文
posted @ 2019-10-28 16:05 牛郎 阅读(2046) 评论(0) 推荐(0) 编辑
摘要: loss是训练集的损失值,val_loss是测试集的损失值 以下是loss与val_loss的变化反映出训练走向的规律总结: train loss 不断下降,test loss不断下降,说明网络仍在学习;(最好的) train loss 不断下降,test loss趋于不变,说明网络过拟合;(max 阅读全文
posted @ 2019-10-28 15:29 牛郎 阅读(20805) 评论(0) 推荐(3) 编辑
摘要: 简而言之,当训练样本数量不变,分类器性能会随着选取的特征维度的增大先增大后减小,也就是说只有在特征维度数量和样本数量稳定在一定范围内,分类器性能才会最优,但目前没有什么固定的方法去计算二者之间的关系。 过拟合就是当训练样本数量不变,分类器性能随着特征维度增大而减小,直观的体现就是测试训练样本分数很高 阅读全文
posted @ 2019-10-24 10:41 牛郎 阅读(739) 评论(0) 推荐(0) 编辑
摘要: 1. 查看git用户配置 2. 查看git邮箱配置 3. 配置git用户 4. 配置git邮箱 PS:如果这些东西不配置好的话,你的代码提交,在github上就会显示是别人的提交!!! 阅读全文
posted @ 2019-10-24 09:41 牛郎 阅读(7481) 评论(0) 推荐(0) 编辑
摘要: 内容涉及:二值图像转换 / 检测连通区域面积 / 在原图上画框等 阅读全文
posted @ 2019-10-17 13:44 牛郎 阅读(2764) 评论(0) 推荐(0) 编辑
摘要: 内容涉及:列表遍历,图像均衡化,图像通道分离与合并 阅读全文
posted @ 2019-10-09 11:10 牛郎 阅读(1123) 评论(0) 推荐(0) 编辑
上一页 1 ··· 9 10 11 12 13 14 15 16 17 ··· 20 下一页