01 2020 档案

特征值分解与奇异值分解
摘要:https://www.cnblogs.com/fuleying/p/4466326.html 特征值分解和奇异值分解在机器学习领域都是属于满地可见的方法。两者有着很紧密的关系,我在接下来会谈到,特征值分解和奇异值分解的目的都是一样,就是提取出一个矩阵最重要的特征。 1. 特征值: 如果说一个向量v 阅读全文

posted @ 2020-01-13 16:19 若流芳千古 阅读(1150) 评论(2) 推荐(1) 编辑

向量内积&外积
摘要:一、向量的内积 1.1向量内积的定义 一、向量的内积 1.1向量内积的定义 概括地说,向量的内积(点乘/点积/数量积)就是对两个向量执行点乘运算,即对这两个向量对应位一一相乘之后求和的操作,如下所示,对于向量a和向量b: a和b的点积公式为: 这里要求一维向量a和向量b的行列数相同。注意:点乘的结果 阅读全文

posted @ 2020-01-13 13:58 若流芳千古 阅读(7211) 评论(0) 推荐(0) 编辑

hdu_3449(有依赖背包)
摘要:https://blog.csdn.net/jibancanyang/article/details/44259105 超时代码: 阅读全文

posted @ 2020-01-10 22:52 若流芳千古 阅读(112) 评论(0) 推荐(0) 编辑

导航

< 2025年2月 >
26 27 28 29 30 31 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 1
2 3 4 5 6 7 8
点击右上角即可分享
微信分享提示