上一页 1 ··· 3 4 5 6 7 8 9 10 11 ··· 33 下一页
摘要: 使用深度学习的超分辨率介绍关于使用深度学习进行超分辨率的各种组件,损失函数和度量的详细讨论。介绍超分辨率是从给定的低分辨率(LR)图像恢复高分辨率(HR)图像的过程。由于较小的空间分辨率(即尺寸)或由于退化的结果(例如模糊),图像可能具有“较低分辨率”。我们可以通过以下等式将HR和LR图像联系起来:LR = degradation(HR)显然,在应用降级函数时,我们从HR图像获得LR图像。但是,我... 阅读全文
posted @ 2019-07-06 00:04 Jerry_Jin 阅读(3522) 评论(0) 推荐(0) 编辑
摘要: Then : Example: 参考: https://tex.stackexchange.com/questions/23678/textbftext-without-increasing-the-length-of-the-text https://tex.stackexchange.com/q 阅读全文
posted @ 2019-05-31 11:05 Jerry_Jin 阅读(544) 评论(0) 推荐(0) 编辑
摘要: Opencv-Facial-Landmark-Detection 利用OpenCV中的LBF算法进行人脸关键点检测(Facial Landmark Detection) Note: OpenCV3.4+OpenCV-Contrib以及上支持Facemark 下面是Amusi具体利用OpenCV中的L 阅读全文
posted @ 2019-05-27 21:28 Jerry_Jin 阅读(3920) 评论(0) 推荐(0) 编辑
摘要: When installing OpenCV: Do: Then: The file /usr/lib/x86_64-linux-gnu/libvtkRenderingPythonTkWidgets.so is also not found but both of these appear to b 阅读全文
posted @ 2019-05-27 21:27 Jerry_Jin 阅读(3493) 评论(0) 推荐(0) 编辑
摘要: When using OpenCV reshape and gets this error: Let's look at the documentation of the reshape function, Wrong parameters can also cause this error Acc 阅读全文
posted @ 2019-05-21 17:42 Jerry_Jin 阅读(2564) 评论(0) 推荐(0) 编辑
摘要: 机器学习工程师最熟悉的设置之一是访问大量数据,但需要适度的资源来注释它。处于困境的每个人最终都会经历逻辑步骤,当他们拥有有限的监督数据时会问自己该做什么,但很多未标记的数据,以及文献似乎都有一个现成的答案:半监督学习。 这通常是出现问题的时候。 从历史上看,半监督学习一直是每个工程师作为一种通过仪式 阅读全文
posted @ 2019-05-19 16:33 Jerry_Jin 阅读(842) 评论(0) 推荐(0) 编辑
摘要: RNN梯度消失和爆炸的原因经典的RNN结构如下图所示:假设我们的时间序列只有三段, 为给定值,神经元没有激活函数,则RNN最简单的前向传播过程如下:假设在t=3时刻,损失函数为 。则对于一次训练任务的损失函数为 ,即每一时刻损失值的累加。使用随机梯度下降法训练RNN其实就是对 、 、 以及 求偏导,并不断调整它们以使L尽可能达到最小的过程。现在假设我们我们的时间序列只有三段,t1,t... 阅读全文
posted @ 2019-05-12 21:28 Jerry_Jin 阅读(5586) 评论(1) 推荐(1) 编辑
摘要: Generative Adversarial Network,就是大家耳熟能详的 GAN,由 Ian Goodfellow 首先提出,在这两年更是深度学习中最热门的东西,仿佛什么东西都能由 GAN 做出来。我最近刚入门 GAN,看了些资料,做一些笔记。 可以参考另一篇,GAN原理 https://w 阅读全文
posted @ 2019-05-11 12:17 Jerry_Jin 阅读(5966) 评论(0) 推荐(0) 编辑
摘要: 独立成分分析(Independent component analysis) 前言 独立成分分析ICA是一个在多领域被应用的基础算法。ICA是一个不定问题,没有确定解,所以存在各种不同先验假定下的求解算法。相比其他技术,ICA的开源代码不是很多,且存在黑魔法–有些步骤并没有在论文里提到,但没有这些步 阅读全文
posted @ 2019-05-08 22:51 Jerry_Jin 阅读(10242) 评论(0) 推荐(0) 编辑
摘要: 1. 深度可分离卷积(depthwise separable convolution)在可分离卷积(separable convolution)中,通常将卷积操作拆分成多个步骤。而在神经网络中通常使用的就是深度可分离卷积(depthwise separable convolution)。 举个例子,假设有一个3×3大小的卷积层,其输入通道为16、输出通道为32。 那么一般的操作就是用32个3×3的... 阅读全文
posted @ 2019-05-08 20:23 Jerry_Jin 阅读(4801) 评论(0) 推荐(0) 编辑
上一页 1 ··· 3 4 5 6 7 8 9 10 11 ··· 33 下一页