该文被密码保护。 阅读全文
posted @ 2018-05-08 08:16 快让开我要变身了 阅读(2) 评论(0) 推荐(0) 编辑
摘要: 这篇文章想阐述一阶优化算法,尽可能的做到全面。 Gradient Descent Method 考虑无约束优化问题 Gradient Descent Method 有如下迭代形式: 这里的 为步长,不同的步长构造策略生成了不同的梯度算法,例如, 则为最速下降法,如果 这里的 , 这时候为BB算法。 阅读全文
posted @ 2018-05-05 14:50 快让开我要变身了 阅读(2430) 评论(0) 推荐(0) 编辑
摘要: 1. 单个算子 从算子的角度来解释一阶算法,令为一个算子,我们求解问题:找到 使得 满足,对应于最优化问题,我们可以令, 这样问题就等价于求解,那么怎么找到这样的呢。 我们寻找一种迭代策略,即找到一种算子F,已知 , 令 这种F满足当 有。于是我们只要寻找满足这种条件的算子即可。接下来介绍几个算法 阅读全文
posted @ 2018-05-04 17:13 快让开我要变身了 阅读(1369) 评论(0) 推荐(1) 编辑
该文被密码保护。 阅读全文
posted @ 2018-05-04 15:04 快让开我要变身了 阅读(703) 评论(1) 推荐(0) 编辑
摘要: 在很多应用领域,例如模式识别,语义分析,文本分类等等,通常是高维的数据。在这种情况下,降维是一个有效的处理这些数据的方法。到目前为止,出现了很多的降维方法,可分为三大类,无监督、监督、半监督。监督的降维方法主要包括线性判别分析(LDA),边缘Fisher分析(MFA),最大边缘准则(MMC)。无监督 阅读全文
posted @ 2018-05-03 19:06 快让开我要变身了 阅读(2136) 评论(0) 推荐(0) 编辑
摘要: 不介绍深度学习~ 1.[多视角聚类学习-Multi-view Clustering: A Survey] [https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8336846] 2.[多视角学习-Multi-view learning o 阅读全文
posted @ 2018-05-03 14:45 快让开我要变身了 阅读(326) 评论(0) 推荐(0) 编辑