上一页 1 ··· 35 36 37 38 39 40 41 42 43 ··· 66 下一页
摘要: 一. 博客文章和视频 blibli视频:Temporal Convolutional Networks (TCN) (推荐) 简书:TCN(Temporal Convolutional Network) 个人博客:Temporal Convolutional Network (TCN与Trellis 阅读全文
posted @ 2020-11-13 22:14 Picassooo 阅读(1501) 评论(0) 推荐(0) 编辑
摘要: 一句话总结为什么RNN会梯度消失和LSTM为什么可以防止梯度消失:RNN会梯度消失是因为后一个状态对前一个状态的梯度连乘。在LSTM中,后一个cell对前一个cell的导数结果可以由几个门控制,这几个门的值是可学习的,网络可以自适应的学习相应的值,控制梯度消失或不消失。 目录 一. 全连接网络的梯度 阅读全文
posted @ 2020-11-13 21:08 Picassooo 阅读(362) 评论(0) 推荐(0) 编辑
摘要: feature map的含义(摘自这篇知乎) Feature Map(特征图)是输入图像经过神经网络卷积产生的结果 。 层与层之间会有若干个卷积核(kernel),每一层中的每个feature map跟每个卷积核做卷积,对应产生下一层的一个feature map。 feature map的含义在计算 阅读全文
posted @ 2020-11-11 10:32 Picassooo 阅读(1345) 评论(0) 推荐(0) 编辑
摘要: Self-Supervised Learning 自监督学习中Pretext task的理解 Pretext task也叫surrogate task Various pretext tasks have been proposed for self-supervised learning incl 阅读全文
posted @ 2020-11-04 20:51 Picassooo 阅读(808) 评论(0) 推荐(0) 编辑
摘要: 定义 时间复杂度就是用来方便开发者估算出程序的运行时间。 我们该如何估计程序运行时间呢,我们通常会估计算法的操作单元数量,来代表程序消耗的时间, 这里我们默认CPU的每个单元运行消耗的时间都是相同的。 假设算法的问题规模为n,那么操作单元数量便用函数f(n)来表示。 随着数据规模n的增大,算法执行时 阅读全文
posted @ 2020-10-18 16:52 Picassooo 阅读(660) 评论(0) 推荐(0) 编辑
摘要: 任务 action recognition motivation Both recurrent and convolutional operations are neighborhood-based local operations either in space or time; hence lo 阅读全文
posted @ 2020-10-16 22:11 Picassooo 阅读(259) 评论(0) 推荐(0) 编辑
摘要: 任务 action recognition 对骨架节点坐标进行视角不变预处理 We align the action sequences by implementing a view-invariant transformation which transforms keypoints coordi 阅读全文
posted @ 2020-10-16 19:48 Picassooo 阅读(880) 评论(0) 推荐(0) 编辑
摘要: 数据降维与可视化——t-SNE sklearn的TSNE函数中,有个perplexity参数,这个参数我试过从10到600,发现参数越大,数据会被聚集的越紧,甚至会把几簇聚为一簇,同时x和y的坐标范围也会越小。所以在可视化的时候,要多调试这个参数,找到合适的值。 阅读全文
posted @ 2020-10-16 12:17 Picassooo 阅读(296) 评论(0) 推荐(0) 编辑
摘要: 任务 action detection:先切割视频,然后聚类。 motivation 利用单个视频中,各个子动作之间存在时间顺序关系,比如在做咖啡的视频中,把咖啡倒进杯子里一般会发生在搅拌咖啡之前。 基本流程 这里只介绍基础版本。 给一个视频数据集,每个视频都包含多个子动作,但所有视频主题相同。从中 阅读全文
posted @ 2020-10-15 20:42 Picassooo 阅读(245) 评论(0) 推荐(0) 编辑
摘要: pytorch是动态图计算机制,也就是说,每次正向传播时,pytorch会搭建一个计算图,loss.backward()之后,这个计算图的缓存会被释放掉,下一次正向传播时,pytorch会重新搭建一个计算图,如此循环。 在默认情况下,PyTorch每一次搭建的计算图只允许一次反向传播,如果要进行两次 阅读全文
posted @ 2020-10-15 10:09 Picassooo 阅读(7962) 评论(0) 推荐(2) 编辑
上一页 1 ··· 35 36 37 38 39 40 41 42 43 ··· 66 下一页