连接
上一页 1 2 3 4 5 6 ··· 8 下一页
摘要: 两种非常常见的非线性单元:rectified linear units (ReLUs) 和 leaky ReLUs 我们选取binary hinge loss进行二分类 对于多分类,我们可以定义multiclass hinge loss 定义Ω为网络的参数空间, L(ω)为loss。 由于我们选了R 阅读全文
posted @ 2018-07-19 22:10 朱群喜_QQ囍_海疯习习 阅读(400) 评论(0) 推荐(0) 编辑
摘要: 本篇文章的介绍了一个非常简单的门限RNN(gated recurrent neural network), 这里有两扇门horizontal/forget gate和vertical/input gate, 即 其中 (logistic sigmoid function) 下面假设输入数据xt满足如 阅读全文
posted @ 2018-07-18 21:59 朱群喜_QQ囍_海疯习习 阅读(461) 评论(1) 推荐(0) 编辑
摘要: 每个网络节点都具有不同的动态行为 信号的时间延迟可能沿着网络链路发生 网络的隐藏部分具有循环连接 输入和内部权重是固定的并随机选择 在训练期间仅调整输出权重。(加速训练) Figure 1.. Illustration of the reservoir computer architecture. 阅读全文
posted @ 2018-07-16 21:10 朱群喜_QQ囍_海疯习习 阅读(579) 评论(0) 推荐(0) 编辑
摘要: 原文:http://tkipf.github.io/graph-convolutional-networks/ 多层图卷积网络 (GCN) with first-order filters. GCNs Part I: Definitions 给定一个网络结构G=(V,E), 1. N个节点,每个节点 阅读全文
posted @ 2018-07-09 21:47 朱群喜_QQ囍_海疯习习 阅读(484) 评论(0) 推荐(0) 编辑
摘要: 构建VR复形(维托里斯-里普斯复形) 在二维平面中,构建从圆形结构中取样的VR复形的可视化的主要步骤: 随着-圆的大小不断变大,拓扑模型特征从诞生到消亡的图像。能保持更长时间的特征是有用的特征,而寿命很短的特征更可能是噪声。这个过程称为持续同调,因为它发现了在你持续变化 时,拓扑空间中持续存在的同源 阅读全文
posted @ 2018-06-04 12:56 朱群喜_QQ囍_海疯习习 阅读(2619) 评论(0) 推荐(0) 编辑
摘要: 格兰杰因果关系(Granger causality )是基于预测的因果关系统计概念。根据格兰杰因果关系,如果信号X1“格兰杰Causes”(或“G-Causes”)信号X2,则X1的过去值应该包含有助于预测X2的信息,并且超过仅包含在X2的过去值中的信息。其数学公式基于随机过程的线性回归模型(Gra 阅读全文
posted @ 2018-05-24 18:18 朱群喜_QQ囍_海疯习习 阅读(1430) 评论(1) 推荐(0) 编辑
摘要: 链接:https://mp.weixin.qq.com/s/BEjj5zJG3QmxvQiqs8P4-w softmax CRF主要用于序列标注问题,可以简单理解为是给序列中的每一帧,既然是分类,很自然想到将这个序列用CNN或者RNN进行编码后,接一个全连接层用softmax激活,如下图所示 逐帧s 阅读全文
posted @ 2018-05-22 16:55 朱群喜_QQ囍_海疯习习 阅读(360) 评论(0) 推荐(0) 编辑
摘要: 网址:https://blog.csdn.net/g11d111/article/details/76639460 阅读全文
posted @ 2018-04-27 09:58 朱群喜_QQ囍_海疯习习 阅读(159) 评论(0) 推荐(0) 编辑
摘要: 请见知乎 阅读全文
posted @ 2018-04-14 20:48 朱群喜_QQ囍_海疯习习 阅读(133) 评论(0) 推荐(0) 编辑
摘要: Iterative Policy Evaluation How to Improve a Policy Value Iteration Every-Visit Monte-Carlo Policy Evaluation 阅读全文
posted @ 2018-04-12 20:56 朱群喜_QQ囍_海疯习习 阅读(158) 评论(0) 推荐(0) 编辑
摘要: Transposed convolutions也称作fractionally strided convolutions(本人比较喜欢这个称呼,比较直观),Upconvolution,deconvolutions i:表示一般卷积时候的输入图片的大小i*i i':表示反卷积时候的输入图片的大小 k:表 阅读全文
posted @ 2018-04-06 20:03 朱群喜_QQ囍_海疯习习 阅读(902) 评论(0) 推荐(0) 编辑
摘要: GAN目前是机器学习中非常受欢迎的研究方向。主要包括有两种类型的研究,一种是将GAN用于有趣的问题,另一种是试图增加GAN的模型稳定性。 事实上,稳定性在GAN训练中是非常重要的。起初的GAN模型在训练中存在一些问题,e.g., 模式塌陷(生成器演化成非常窄的分布,只覆盖数据分布中的单一模式)。模式 阅读全文
posted @ 2018-04-05 20:17 朱群喜_QQ囍_海疯习习 阅读(712) 评论(0) 推荐(0) 编辑
摘要: Generative Adversarial Nets(简称GAN)是一种非常流行的神经网络。 它最初是由Ian Goodfellow等人在NIPS 2014论文中介绍的。 这篇论文引发了很多关于神经网络对抗性训练的兴趣,论文的引用次数已接近2700+。 许多变形的GAN出现了:DCGAN,Sequ 阅读全文
posted @ 2018-04-05 10:01 朱群喜_QQ囍_海疯习习 阅读(552) 评论(0) 推荐(0) 编辑
摘要: 链接:https://kexue.fm/archives/5253 分布变换 通常我们会拿VAE跟GAN比较,的确,它们两个的目标基本是一致的——希望构建一个从隐变量Z生成目标数据X的模型,但是实现上有所不同。更准确地讲,它们是假设了Z服从某些常见的分布(比如正态分布或均匀分布),然后希望训练一个模 阅读全文
posted @ 2018-04-03 20:01 朱群喜_QQ囍_海疯习习 阅读(1376) 评论(0) 推荐(0) 编辑
摘要: 链接:https://kexue.fm/archives/5343 阅读全文
posted @ 2018-04-02 17:01 朱群喜_QQ囍_海疯习习 阅读(229) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 ··· 8 下一页
Map