Spark机器学习——模型选择与参数调优之交叉验证
spark 模型选择与超参调优
机器学习可以简单的归纳为 通过数据训练
y = f(x)
的过程,因此定义完训练模型之后,就需要考虑如何选择最终我们认为最优的模型。
如何选择最优的模型,就是本篇的主要内容:
- 模型验证的方法
- 超参数的选择
- 评估函数的选择
模型验证的方法
在《统计学习方法》这本书中,曾经讲过模型验证的方法有三种,分别是简单的交叉验证
,S折交叉验证
,留一交叉验证
简单的交叉验证
即把全部数据按照比例分割成两部分,分别是训练集和测试集。在训练集训练模型,在测试集测试效果,最终选择一个代价比较小的结果。一般是0.75。
S折交叉验证
设置S为一个数,一般是3或者10居多。如果是3,那么前2份作为训练集,最后一份作为测试集。
留一交叉验证
如果S的个数正好是样本的容量,就是留一交叉验证。
PS:
训练集是用于训练模型,测试集适用于判断此次训练效果。
在Spark MLLib中,为我们提供了两种验证方法,分别是
Cross-Validation
: S折交叉验证Train-ValidationSplit
:简单交叉验证
超参数的选择
在Spark MLLib中,超参数可以通过上面的验证方法,作为参数传进去:
// 定义超参数集合
val paramGrid = new ParamGridBuilder()
.addGrid(hashingTF.numFeatures, Array(10, 100, 1000))
.addGrid(lr.regParam, Array(0.1, 0.01))
.build()
// 定义验证器
val cv = new CrossValidator()
.setEstimator(pipeline)
.setEvaluator(new BinaryClassificationEvaluator)
.setEstimatorParamMaps(paramGrid)
.setNumFolds(2) // Use 3+ in practice
其中hashingTF给设置了3个参数、lr给了2个参数,如果正常我们想要验证这6个参数的组合,应该需要验证6次。但是在Spark中,基于Validator可以一次性验证出来,并自动选择最后代价最小的那个。
PS
上面S折交叉验证中S的参数为2,因此内部只有一个训练集;如果是3,那么最终运行的训练次数将会是 (3*2)*2 = 12
次。
评估函数的确定
Spark提供了三种评估函数:
RegressionEvaluator
用于回归预测的问题BinaryClassificationEvaluator
用于二分类问题MulticlassClassificationEvaluator
用于多分类问题
详细的代码,可以参考:
http://spark.apache.org/docs/latest/ml-tuning.html
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 周边上新:园子的第一款马克杯温暖上架
· Open-Sora 2.0 重磅开源!
· 分享 3 个 .NET 开源的文件压缩处理库,助力快速实现文件压缩解压功能!
· Ollama——大语言模型本地部署的极速利器
· DeepSeek如何颠覆传统软件测试?测试工程师会被淘汰吗?
2016-01-30 《这样装修最省钱》—— 读后总结