上一页 1 ··· 104 105 106 107 108 109 110 111 112 ··· 329 下一页
摘要: https://setosa.io/ev/markov-chains/ 可以通过调节样本的参数,理解模型在干些什么 阅读全文
posted @ 2022-03-20 21:36 bH1pJ 阅读(5) 评论(0) 推荐(0) 编辑
摘要: 坑 正交意味着完全的不相关。 相关性刻画的是两个随机变量是否存在线性关系。 独立刻画的是两个变量之间是否存在联系。 X和Y不相关,意味着两者不存在线性关系,但是不能保证也没有非线性的关系。 而 X和Y相互独立,意味着两者不仅没有线性关系,其他的关系也没有... 阅读全文
posted @ 2022-03-20 21:36 bH1pJ 阅读(58) 评论(0) 推荐(0) 编辑
摘要: https://www.quora.com/What-is-the-difference-between-PCA-and-ICA PCA,朝着最大方差的方向寻找基向量; ICA,朝着最大独立性的方向寻找基向量; 阅读全文
posted @ 2022-03-20 21:36 bH1pJ 阅读(50) 评论(0) 推荐(0) 编辑
摘要: kurtosis该如何理解? 峰度可以用来刻画随机变量的非高斯性; https://blog.csdn.net/qq_36523839/article/details/88671873 https://stats.stackexchange.com/q... 阅读全文
posted @ 2022-03-20 21:36 bH1pJ 阅读(49) 评论(0) 推荐(0) 编辑
摘要: how to generate data based on known covariance matrix https://stats.stackexchange.com/questions/120179/generating-data-with-a-g... 阅读全文
posted @ 2022-03-20 21:36 bH1pJ 阅读(6) 评论(0) 推荐(0) 编辑
摘要: 我们知道PCA降维的目标函数是尽可能地保留原始样本X中的方差信息。 所以降维后样本的协方差矩阵其对角线上元素尽可能得大我是理解,并认可的。 但为什么非对角线元素均为零呢? 降维之后的样本,各个维度之间的相关性完全被切除了。 以下是实验code 降维前 ... 阅读全文
posted @ 2022-03-20 21:36 bH1pJ 阅读(38) 评论(0) 推荐(0) 编辑
摘要: 应该按照列来理解; 阅读全文
posted @ 2022-03-20 21:36 bH1pJ 阅读(2) 评论(0) 推荐(0) 编辑
摘要: np.dot(M1,M2) 阅读全文
posted @ 2022-03-20 21:36 bH1pJ 阅读(21) 评论(0) 推荐(0) 编辑
摘要: 请参考这篇博客 https://blog.csdn.net/monk1992/article/details/107019784 调整前↑ 调整后↓ 可以进行交互了 如何调整↓ 阅读全文
posted @ 2022-03-20 21:36 bH1pJ 阅读(18) 评论(0) 推荐(0) 编辑
摘要: 如何理解某种算法,具体掌握到什么程度时,可以说满意了? 阅读全文
posted @ 2022-03-20 21:36 bH1pJ 阅读(1) 评论(0) 推荐(0) 编辑
上一页 1 ··· 104 105 106 107 108 109 110 111 112 ··· 329 下一页