上一页 1 2 3 4 5 6 7 ··· 13 下一页
摘要: 1.距离计算 给定样本 xi=(xi1,xi2,...,xin),xj=(xj1,xj2,...,xjn) 连续属性的距离计算 闵可夫斯基距离 \(dist_{mk}(x_i,x_j)=(\sum\limits_{u=1}^{n}|x_{iu}-x_{ 阅读全文
posted @ 2022-04-06 21:59 筷点雪糕侠 阅读(46) 评论(0) 推荐(0) 编辑
摘要: 高斯过程描述 1.x(t1,t2,...,t100)0100y() \(2.每个时间点上都有一个对应的表现值随机变量(\xi_{t_1},\xi_{t_2}...),这些都是随机变量,也就是是一个概率分布,所以每个点上都 阅读全文
posted @ 2022-04-05 16:18 筷点雪糕侠 阅读(203) 评论(0) 推荐(0) 编辑
摘要: 书上的图5.7介绍了神经网络的结构 但是图过于简单,对于推导公式很不利,很难理解,我对原图做了一些修改和扩展,方便大家理解 首先看下图上的一些标记说明 1.i(I)j(J)k(K)ikj \( 阅读全文
posted @ 2022-03-30 11:35 筷点雪糕侠 阅读(217) 评论(0) 推荐(1) 编辑
摘要: 1.概念 判别式是一个使用输入向量x并把它分配给K种分类的其中一种Ck的函数。本章中,我们把我们的讨论局限于线性判别式(linear discriminants),即那些决策面是超平面的判别函数。为了简化讨论,我们首先考虑二分类的情况,再推广到K>2的情形。 #2 二分类 线性 阅读全文
posted @ 2022-03-27 16:59 筷点雪糕侠 阅读(266) 评论(0) 推荐(0) 编辑
摘要: 一些记号 1. x 2. Ck,k=1,2,...,K,K 3.// D(D1) y(x)=constantwTx+w0=constant \(4 阅读全文
posted @ 2022-03-27 09:58 筷点雪糕侠 阅读(53) 评论(0) 推荐(0) 编辑
摘要: 1.拟牛顿法思想 考虑f(x)在当前是xk处的二次函数 mk(x):=f(xk)+f(xk)T(xxk)+12(xxk)TBk(xxk) 其中Bk0 利用min mk(x)得方向,\(d^k=-B_k^ 阅读全文
posted @ 2022-03-26 17:25 筷点雪糕侠 阅读(374) 评论(0) 推荐(0) 编辑
摘要: 崔雪婷 最优化基础理论与方法 3.2章节 1.目标 无约束优化问题 min f(x),xRn 其中f(x)是二阶可微的 2.牛顿法的思想 设x^是局部解,则x^满足 f(x)=0 选取初始点x1,在x1出按照泰勒展开,取二次近似多项式 \ 阅读全文
posted @ 2022-03-26 10:36 筷点雪糕侠 阅读(165) 评论(0) 推荐(0) 编辑
摘要: 案例说明 案例 Y1穿(yieldpoint) Y2(ultimatestrength) 1 y1 y2 33 60 36 61 35 64 38 63 40 阅读全文
posted @ 2022-03-23 21:59 筷点雪糕侠 阅读(559) 评论(0) 推荐(0) 编辑
摘要: 本章节中的一些概念跳来跳去,比较复杂,一些概念如 条件概率,最大似然,先验分布,后验分布,预测分布,证据函数,这些关系都梳理到了思维导图中, 3.线性回归模型 基函数模型 基函数种类 高斯基函数 多项式基函数 傅里叶基函数 sigmod基函数 回归函数最大似然求解析解 条件分布:假设:噪声是正态分布 阅读全文
posted @ 2022-03-23 11:08 筷点雪糕侠 阅读(135) 评论(0) 推荐(0) 编辑
摘要: 3.5证据近似 解决两个超参数α,β 如果我们引入α,β上的超先验,那么预测分布可以通过边缘化w,α,β来获得: $ p(t|\textbf{t})=\int\int\int p(t|w,\beta)p(w|\textbf{t},\ 阅读全文
posted @ 2022-03-22 23:39 筷点雪糕侠 阅读(306) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 ··· 13 下一页
点击右上角即可分享
微信分享提示