摘要: 0. 简介与前置知识 本笔记着重学习Zhao Qibin教授等发表的"关于利用张量网络缩减维度和大规模优化"(Tensor Networks for dimensionality Reduction and Large Scale Optimization)等张量网络相关的内容. 就目前来看, 网上 阅读全文
posted @ 2020-01-25 16:16 LyWangJapan 阅读(4391) 评论(2) 推荐(0) 编辑
摘要: 4 压缩与Tucker分解法 4.0 Tucker分解法定义 Tucker分解法可以被视作一种高阶PCA. 它将张量分解为核心张量(core tensor)在每个mode上与矩阵的乘积. 因此, 对三维张量$\mathcal{X}\in\mathbb{R}^{I \times J \times K} 阅读全文
posted @ 2019-12-24 01:16 LyWangJapan 阅读(5591) 评论(0) 推荐(5) 编辑
摘要: 3. 张量秩与CANDECOMP/PARAFAC分解法 3.0 CANDECOMP/PARAFAC分解法的定义 CANDECOMP(canonical decomposition)和PARAFAC(parallel factors)是一种对张量进行拆分的方法, 其核心思想是用有限个的秩1张量的和来( 阅读全文
posted @ 2019-12-19 16:48 LyWangJapan 阅读(7975) 评论(1) 推荐(4) 编辑
摘要: 0. 前言 本笔记主要是围绕这篇学术期刊文章进行的: "Tensor Decomposition and Applications" 前期内容为选择性的翻译, 重新梳理逻辑, 省略一些没有意义的部分, 添加自己的例子. 后期将结合其他学术文章进行试验性探讨. 此笔记为笔者接触该领域的第一步,最适合从 阅读全文
posted @ 2019-12-15 00:21 LyWangJapan 阅读(6914) 评论(3) 推荐(5) 编辑
摘要: 持续更新中 想看全部的欢迎点击下面的github 均为下图所示pdf https://github.com/LyWangPX/Solutions-of-Reinforcement-Learning-An-Introduction-Sutton-2nd 阅读全文
posted @ 2019-04-30 01:14 LyWangJapan 阅读(2863) 评论(0) 推荐(0) 编辑
摘要: RL到了第三章题目多的不可思议 前两章比较简单,就在博客随便写写了。之后的用pdf更新。 1.1: Self-play will result different move even from the first step due to randomization of the action cho 阅读全文
posted @ 2019-04-21 15:05 LyWangJapan 阅读(428) 评论(0) 推荐(0) 编辑