09 2019 档案

摘要:文章目录确定执行的优先级误差分析不对称性分类的误差评估精确度和找回率的权衡机器学习数据 确定执行的优先级 列出可能的解决方案,然后权衡选择。而不是一开始只是关注去收集更多的数据。例如对于垃圾邮件可以有以下一些方案: 误差分析 一般先花一天时间,简单粗暴的实现一个算法,画出学习曲线,然后逐步改进。 S 阅读全文
posted @ 2019-09-30 08:33 bitbitbyte 阅读(131) 评论(0) 推荐(0) 编辑
摘要:应用机器学习的建议 如何改进算法 更多的训练数据不一定有效 尝试更小的特征 增加特征 增加多项式特征 尝试不同的正则化系数 以上方法可能并不是一些很有效的方法 如何评价和诊断一个机器学习系统,可以极大地提高改进算法的效率。 评估假设 如何防止过拟合与欠拟合的问题 将数据分割为训练集与测试集,统计测试 阅读全文
posted @ 2019-09-29 09:59 bitbitbyte 阅读(113) 评论(0) 推荐(0) 编辑
摘要:代价函数 像大部分机器学习一样,从代价函数开始讲起。 重点讲解,神经网络在分类问题中的应用。 神经网络层数 用LLL来表示神经网络结果的总层数。 每层单元数 用sls_lsl​表示第lll层的单元数,但不包括偏置。 Binary classification 一个输出单元 Multi-class c 阅读全文
posted @ 2019-09-28 11:17 bitbitbyte 阅读(180) 评论(0) 推荐(0) 编辑
摘要:第9章 神经网络学习非线性假设神经元与大脑模型展示 1模型展示 2例子与直觉理解 1例子与直觉理解2 非线性假设 为什么需要学习这个算法 非线性拟合 多项式 多项式拟合参数个数大于特征个数 神经网络 当特征个数过大时,多项式拟合参数过多 二次项的个数大约是(n2)/2(n^2)/2(n2)/2,nn 阅读全文
posted @ 2019-09-21 17:33 bitbitbyte 阅读(218) 评论(0) 推荐(0) 编辑
摘要:文章目录1. 原始优化问题等价拉格朗日的极小极大问题2. 对偶问题3. 原问题和对偶问题的关系 1. 原始优化问题等价拉格朗日的极小极大问题 原始优化问题 ci(x)c_i(x)ci​(x)为不等式约束 hj(x)h_j(x)hj​(x)为等式约束 广义拉格朗日函数 其中αj,βj\alpha_j, 阅读全文
posted @ 2019-09-18 15:32 bitbitbyte 阅读(204) 评论(0) 推荐(0) 编辑
摘要:在numpy中array类型为一维时会退化为数组类型,可以换用matrix类型。或对其reshape为行向量或者列向量。 参考: numpy 矩阵运算的陷阱 - kamidox的专栏 - CSDN博客 阅读全文
posted @ 2019-09-18 15:07 bitbitbyte 阅读(168) 评论(0) 推荐(0) 编辑
摘要:Logistic regression cost function 用以上代价函数拟合参数的优点: 这个式子是从统计学中的极大似然法的来的, 它是统计学中为不同模型快速寻找参数的方法. 除此之外它还有个优点就是, 它是凸的. 阅读全文
posted @ 2019-09-11 11:15 bitbitbyte 阅读(122) 评论(0) 推荐(0) 编辑
摘要:缓存是一种将定量数据加以保存以备迎合后续请求的处理方式,旨在加快数据的检索速度。 在 Python 的 3.2 版本中,引入了一个非常优雅的缓存机器,即 functool 模块中的 lru_cache 装饰器。 lru_cache原型如下: @functools.lru_cache(maxsize= 阅读全文
posted @ 2019-09-03 10:15 bitbitbyte 阅读(426) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示