05 2019 档案

摘要:1. 题目 2. 解答 在 "LeetCode 46——全排列" 中我们已经知道,全排列其实就是先确定某一个位置的元素,然后余下就是一个子问题。在那个问题中,数据没有重复,所以数据中的任意元素都可以放在最后一个位置。 但是,如果数据有重复的话,重复的数据都放在最后则是一样的结果,我们需要进行一个去重 阅读全文
posted @ 2019-05-29 10:49 seniusen 阅读(142) 评论(0) 推荐(0) 编辑
摘要:1. 题目 2. 解答 2.1. 方法一——大顶堆 参考 "堆和堆排序" 以及 "堆的应用" ,我们将数组的前 K 个位置当作一个大顶堆。 首先建堆,也即对堆中 [0, (K 2)/2] 的节点从上往下进行堆化。第 K/2 个节点若有子节点,其左子节点位置应该为 2 K/2 + 1 = K+1,而我 阅读全文
posted @ 2019-05-28 09:32 seniusen 阅读(312) 评论(0) 推荐(0) 编辑
摘要:1. 题目 2. 解答 给定一个序列,序列中的任意一个数字都可以作为全排列的最后一位。然后,其余位置元素的确定便是剩余元素的一个全排列,也就是一个子问题。 例子中 [1, 2, 3] 的全排列,最后一位可以是 1 或者 2 或者 3。如果最后一位是 3,前两位便是 [1, 2] 的全排列。 我们用递 阅读全文
posted @ 2019-05-27 21:49 seniusen 阅读(148) 评论(0) 推荐(0) 编辑
摘要:1. 题目 2. 解答 定义两个栈 s_l_r、s_r_l 分别负责从左到右和从右到左遍历某一层的节点,用标志变量 flag 来控制具体情况,根节点所在层 flag=1 表示从左到右遍历,每隔一层改变一次遍历方向。 用栈 s_l_r 从左到右遍历当前层节点时,按照先左子节点再右子节点的顺序将这一层节 阅读全文
posted @ 2019-05-26 15:55 seniusen 阅读(169) 评论(0) 推荐(0) 编辑
摘要:1. 题目 2. 解答 借助于归并排序的分治思想,在 每次合并的时候 统计逆序对。因为要合并的两个数组都是有序的,如果左半部分数组当前值大于右半部分数组当前值,那么左半部分数组当前值右边的数就都大于右半部分数组当前值,这些数据对也就构成了逆序数对。 比如上图中 [3, 8, 9, 11] 和 [1, 阅读全文
posted @ 2019-05-23 16:03 seniusen 阅读(192) 评论(0) 推荐(0) 编辑
摘要:1. 指针是变量的地址 c include using namespace std; int main() { int a = 3; int p = &a; cout using namespace std; int main() { // 一维数组的数组名就是数组的首地址 int data[3] 阅读全文
posted @ 2019-05-22 16:10 seniusen 阅读(210) 评论(0) 推荐(0) 编辑
摘要:1. 摘要 卷积和循环神经网络中的操作都是一次处理一个局部邻域,在这篇文章中,作者提出了一个非局部的操作来作为捕获远程依赖的通用模块。 受计算机视觉中经典的非局部均值方法启发,我们的非局部操作计算某一位置的响应为所有位置特征的加权和。而且,这个模块可以插入到许多计算机视觉网络架构中去。 2. 介绍 阅读全文
posted @ 2019-05-16 10:39 seniusen 阅读(905) 评论(0) 推荐(0) 编辑
摘要:1. 摘要 注意力机制是深度神经网络的一个设计趋势,其在各种计算机视觉任务中都表现突出。但是,应用到图像超分辨领域的注意力模型大都没有考虑超分辨和其它高层计算机视觉问题的天然不同。 作者提出了一个新的注意力模型,由针对 SR 问题优化的新的通道和空间注意力机制以及将这两者结合起来的融合机制组成。基于 阅读全文
posted @ 2019-05-15 10:21 seniusen 阅读(1086) 评论(0) 推荐(0) 编辑
摘要:1. 摘要 CNN 中的特征包含着不同类型的信息,它们对图像重建的贡献也不一样。然而,现在的大多数 CNN 模型却缺少对不同信息的辨别能力,因此也就限制了模型的表示容量。 另一方面,随着网络的加深,来自前面层的长期信息很容易在后面的层被削弱甚至消失,这显然不利于图像的超分辨。 作者提出了一个通道和空 阅读全文
posted @ 2019-05-14 10:00 seniusen 阅读(2054) 评论(1) 推荐(0) 编辑
摘要:1. 摘要 作者提出了一个简单但有效的注意力模块 CBAM,给定一个中间特征图,我们沿着空间和通道两个维度依次推断出注意力权重,然后与原特征图相乘来对特征进行自适应调整。 由于 CBAM 是一个轻量级的通用模块,它可以无缝地集成到任何 CNN 架构中,额外开销忽略不计,并且可以与基本 CNN 一起进 阅读全文
posted @ 2019-05-13 08:44 seniusen 阅读(2818) 评论(0) 推荐(2) 编辑
摘要:1. 摘要 在图像超分辨领域,卷积神经网络的深度非常重要,但过深的网络却难以训练。低分辨率的输入以及特征包含丰富的低频信息,但却在通道间被平等对待,因此阻碍了网络的表示能力。 为了解决上述问题,作者提出了一个深度残差通道注意力网络(RCAN)。特别地,作者设计了一个残差中的残差(RIR)结构来构造深 阅读全文
posted @ 2019-05-12 11:46 seniusen 阅读(2821) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示