转载一篇短小精悍的博文:强可学习在什么条件下与弱可学习等价
强可学习在什么条件下与弱可学习等价
2009年10月27日 星期二 上午 11:08
Kearns和Valiant(1988,1994)在PAC的基础上,提出弱可学习的理论。他这样描述一个概念是弱可学习:F(x)是自然模型,f(x)是从样本集学习后建立的模型,|F(x)-f(x)|≤ε成立的概率大于(1/2)+δ,0≤δ≤1/2。这意味着,一个概念如果是弱可学习的,那么只要求一个弱可学习算法产生的模型的精度高于50%,也就是比随机猜想稍好。同时他将满足PAC原始定义的概念可学习称为强可学习。进而,他问了如下一个问题,强可学习在什么条件下与弱可学习等价。
1990年,Schapire回答了这个问题。他使用构造的方法证明:一个概念弱可学习的充要条件是这个概念强可学习。这是一个有些“不可思议”的结论。正是由于这个定理,开始了至今还在人们关注视野中的一类机器学习的研究,机器学习研究者将这类学习方式称为集群学习(Ensemble Learning)。
出处:江岭师弟的博客:
http://hi.baidu.com/timeless/blog/item/c128dd543a40eb52d1090640.html
posted on 2009-12-24 16:08 薛定谔的旺财(刘杨) 阅读(1438) 评论(0) 编辑 收藏 举报
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 周边上新:园子的第一款马克杯温暖上架
· Open-Sora 2.0 重磅开源!
· 分享 3 个 .NET 开源的文件压缩处理库,助力快速实现文件压缩解压功能!
· Ollama——大语言模型本地部署的极速利器
· [AI/GPT/综述] AI Agent的设计模式综述