上一页 1 ··· 7 8 9 10 11
摘要: k,N,m(H)的关系 此时x2,x3为一组有四种情况,可以被shatter,因此这组数据不能加入。 当break point k=2时,每组两个数据,当N>k时,k很大程度上限制了h的数量即m(H)。 练习题 由B(3,3)推B(4,3): B(4,3)=2a+β B(3,3)=a+β 将E(ou 阅读全文
posted @ 2020-08-24 15:58 吴莫愁258 阅读(83) 评论(0) 推荐(0) 编辑
摘要: review 因此机器学习被拆分为两个重要问题:1.E(out)足够接近E(in)?2.E(in)足够小? 关于h的数量M 当h1和h2很接近时,发生bad事件的概率是重叠的。因此联级相加的结果远大于实际,无法处理M无限大时的情况。 当只有一笔资料时: 只有两种h。 当有两笔资料时: 会有四种h。 阅读全文
posted @ 2020-08-23 15:01 吴莫愁258 阅读(456) 评论(0) 推荐(0) 编辑
摘要: 霍夫丁不等式: 当样本N足够大时,μ和v相差很大的可能性很小。(需要合适的N和误差,N越大,μ和v接近的几率越大;且不需要知道μ) 证明了可由小样本的v推出μ。 用D检验h,即x是否与f相同(监督式学习x还会有标签y) 流程 从罐子中取样,得到一个概率P(g与f相同的概率),有两个用途:1.产生资料 阅读全文
posted @ 2020-08-22 21:39 吴莫愁258 阅读(172) 评论(0) 推荐(0) 编辑
摘要: 由y分类可分成:二元分析,多类别分析,回归分析,结构分析... 监督学习:知道样本的特征(硬币的重量、面值) 非监督学习:不知道特征,分类与聚类 半监督学习:少部分样本有标签(适用于获得标签较困难的情况) 强化学习(reinforcement learning):基于奖惩机制,找到奖励最多的那个po 阅读全文
posted @ 2020-08-15 23:45 吴莫愁258 阅读(261) 评论(0) 推荐(0) 编辑
摘要: PLA:Perceptron Learning Algorithm PLA的任务就是找到将数据集划分为两个区域的线。 基本模型 也可以叫linear classifiers 注意:上标表示第几个样本,下标表示这个样本的第几个特征 PLA算法流程: 输入:训练数据集{(X1,Y1),(X2,Y2),. 阅读全文
posted @ 2020-08-14 23:17 吴莫愁258 阅读(458) 评论(0) 推荐(0) 编辑
摘要: 1.Python3.8:解释器,将程序员的语言翻译成机器语言 2.IDLE:官方自带的编译器,也就是程序员写程序的地方,使用时影响程序可读性和调试 3.Pycharm,vscode:集成环境,Pycharm是专为Python设计的,可直接使用;vscode需安装Python扩展包 4.Anacond 阅读全文
posted @ 2020-08-14 22:59 吴莫愁258 阅读(92) 评论(0) 推荐(0) 编辑
上一页 1 ··· 7 8 9 10 11