day2021_10_02

今日内容

  • 完成了西瓜书第12章与第13章的学习
  • 经验误差与泛化误差:
    • 经验误差:已知数据集上的误差,但经验误差最好的情况不一定是我们所需要的
    • 泛化误差:全局数据集上的误差
  • 计算想学习理论:研究经验误差与泛化误差之间的逼近程度,泛化误差是我们的追求目标,经验误差是我们在已有数据集上的表现,两者之间的逼近程度反映了模型的可用程度。
  • PAC(概率近似正确)可学习,
    以较大概率学习到预设误差上限的模型。
  • 有限假设空间:
    • 假设空间H包含了学习算法所有可能输出的假设,一般H越大,包含的目标概念的可能性越大,但是这样从H中找到某个目标概念的难度越大。所以一般在H有限时讨论问题。
    • 有限假设空间分为可分与不可分两类。
  • 还有增长函数、对分、打散、vc维等概念的学习。
  • 半监督学习:
    • 纯半监督学习:假定训练数据的未标记样本并非待预测的数据,希望学得得模型能适用于训练过程中未观测到的数据
    • 直推学习: 假定训练数据的未标记样本是待测数据,学习的目的就是在这些未标记样本上获得最优泛化性能。仅试图对学习过程中观察到的未标记数据进行预测。
    • 主动学习:通过有标记的数据习得模型,再对未标记数据进行预测后,基于专家经验,优化模型。

遇到的困难

暂无

明日计划

  • 完成第13章跟第14章内容的学习。
posted @ 2021-10-02 23:47  闲伯  阅读(17)  评论(2编辑  收藏  举报