General Guide
发现结果不好时,可以按下图顺序来调整
先考虑Loss on training data,如果large,考虑model bias和optimization
Model Bias
model太简单,导致最优解不在空间里,只能找到小空间的最优解,犹如大海捞针,针却不在大海
这时我们要redesign一下model,更复杂一些,更大的弹性,增加输入的feature,可以用deep learning
Optimization
可能卡在局部最优解,而不是全局最优解,犹如大海捞针,针确实在大海,但捞不上
那么如何判断是model bisa还是optimization出了问题
在testing data中,20层好于50层,不能说明它是过拟合。在training data中,20层好于56层,说明是optimization不好,而不是弹性不够的原因,20层能做到的事56层一定能做到,如果56层optimization成功的话,得到的结果比20层是要好的。
接下来考虑loss on training data小但loss on testing data大的问题,可能是遇到了overfitting(可以通过增加训练集数据来解决)
可以用data augmentation方法,即通过自己对问题的理解来创造一些资料,但是不能随便做(如把影像倒置),要有道理
或者限制一下model的弹性:比如确定了就是二次曲线;或者在深度学习中可以使用以下的方法
把training data分为training set和validation set时候,可以使用如下方法
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 使用C#创建一个MCP客户端
· ollama系列1:轻松3步本地部署deepseek,普通电脑可用
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· 按钮权限的设计及实现