摘要: 1. 如遇到偶现BUG,则想办法使其必现,再debug调试 如环境因素无法使其必现,dump下出现时候的环境变量,本地使用单元测试复现:一来避免偶现导致的心态问题,二来避免外界对debug区域代码的影响。 阅读全文
posted @ 2024-08-01 23:51 yinpengchen 阅读(3) 评论(0) 推荐(0) 编辑
摘要: 参考页面:https://www.jb51.net/program/29533325i.htm https://www.cnblogs.com/kn-zheng/p/17005182.html Android.mk是什么 Android.mk是 Android 工程管理文件,类似于编译文件的说明书, 阅读全文
posted @ 2024-07-28 18:57 yinpengchen 阅读(17) 评论(0) 推荐(0) 编辑
摘要: dropout指神经网络在训练时通过随机失活部分神经元方式来降低过拟合的策略,大多在全连接层中使用。 [《Dropout: A Simple Way to Prevent Neural Networks from Overfitting》 (https://jmlr.org/papers/volum 阅读全文
posted @ 2022-07-27 15:50 yinpengchen 阅读(138) 评论(0) 推荐(1) 编辑
摘要: precision & recall 与 PR曲线 Precision中文名查准率,精确率:表示预测为正样本的样本集中真正正样本的比例 Recall中文名查全率,召回率:表示真正为正样本的样本集中被预测为正样本的比例 $$P=TP/(TP+FP)$$ $$R=TP/(TP+FN)$$ 其中TP,TN 阅读全文
posted @ 2022-07-27 10:23 yinpengchen 阅读(299) 评论(0) 推荐(0) 编辑
摘要: 一. torch.nn.DataParallel ? pytorch单机多卡最简单的实现方法就是使用nn.DataParallel类,其几乎仅使用一行代码net = torch.nn.DataParallel(net)就可让模型同时在多张GPU上训练,它大致的工作过程如下图所示: 在每一个Itera 阅读全文
posted @ 2021-11-02 13:10 yinpengchen 阅读(1958) 评论(0) 推荐(0) 编辑