摘要:
转自:https://blog.csdn.net/yimingsilence/article/details/79208092 注意力机制(Attention Mechanism) 近年来,深度学习的研究越来越深入,在各个领域也都获得了不少突破性的进展。基于注意力(attention)机制的神经网络 阅读全文
摘要:
转自:https://zhuanlan.zhihu.com/p/40991784 1. 摘要EM(Expectation Maximum)算法也称期望最大化算法,曾入选“数据挖掘十大算法”中,可见EM算法在机器学习、数据挖掘中的影响力。EM算法是最常见的隐变量估计方法,在机器学习中有极为广泛的用途, 阅读全文
摘要:
转自: https://home.gamer.com.tw/creationDetail.php?sn=2427438 二維空間(二次元):正方形三維空間(三次元):正方體四維空間(四次元):正方晶(超正方體)※正方晶名稱由來是因為模型在三維空間看起來像一個結晶體,但在學界上是稱為超正方體、超方形。 阅读全文
摘要:
转自: "l1正则与l2正则的特点是什么,各有什么优势? Andy Yang的回答 知乎" 理解L1,L2 范数L1,L2 范数即 L1 norm 和 L2 norm,自然,有L1、L2便也有L0、L3等等。因为在机器学习领域,L1 和 L2 范数应用比较多,比如作为正则项在回归中的使用 Lasso 阅读全文
摘要:
转载自:https://blog.csdn.net/luolang_103/article/details/82705679 数学中最优化问题的一般表述是求取,使,其中是n维向量,是的可行域,是上的实值函数。凸优化问题是指是闭合的凸集且是上的凸函数的最优化问题,这两个条件任一不满足则该问题即为非凸的 阅读全文
摘要:
转自:https://blog.csdn.net/hustqb/article/details/78347713 Hinge Loss 在机器学习中,hinge loss作为一个损失函数(loss function),通常被用于最大间隔算法(maximum margin),而最大间隔算法又是SVM( 阅读全文
摘要:
[TOC] 论文信息 Nichol A , Achiam J , Schulman J . On First Order Meta Learning Algorithms[J]. 2018. 一、摘要 本文主要考虑 问题,即存在一个 任务分布(a distribution of tasks) ,从这 阅读全文
摘要:
[TOC] 论文信息: Finn C, Abbeel P, Levine S. Model agnostic meta learning for fast adaptation of deep networks[C]//Proceedings of the 34th International Co 阅读全文
摘要:
Editor: Veagau Time: 2019.10.28 [TOC] 一、RSS Hub的使用 力求简单,能用图形界面操作的就用图形界面操作。 1. Fork "RSS Hub" 仓库到自己的GitHub账号下 2. 将自己的RSS Hub仓库中 或`clone`到本地 3. 进入到项目文件夹 阅读全文
摘要:
Time: 2019年10月27日 Author:Veagau 在看讲Repitle的论文【On First Order Meta Learning Algorithm】时,实验环节对N Way K Shot分类问题的SetUp进行的描述引起了我的二度思考,以前对这个问题的理解感觉没摸透,以此为契机 阅读全文