摘要: Spatiotemporal Transformer for Video-based Person Re-identification Abstract Key issue: How to extract discriminative information from a tracklet. Pro 阅读全文
posted @ 2021-04-01 15:35 默盒 阅读(275) 评论(0) 推荐(0) 编辑
摘要: Transformer Model 性质: 1. Transformer是Seq2Seq类模型. 2. ransformer不是RNN. 3.仅依赖attention和全连接层. 准确率远高于RNN类. 各种weights: \(weights \space\space \alpha_{ij} = 阅读全文
posted @ 2021-02-17 17:55 默盒 阅读(259) 评论(0) 推荐(0) 编辑
摘要: Seq2Seq Model 缺陷: ​ 由于Decoder的输入是且仅是Encoder输出在最后的$H_m$, 因此可能会丢失部分前面的信息, 并在序列越长此问题越严重. Attention 如何改进Seq2Seq model的遗忘问题 SimpleRNN + Attention: $S_0$现在不 阅读全文
posted @ 2021-02-17 17:29 默盒 阅读(58) 评论(0) 推荐(0) 编辑
摘要: 操作: Ctrl+A 全选所有对象, 然后使用滤镜渲染成灰度图, 至于这个RGB比值, 看个人需求, 标准情况下rgb2gray是 原始RGB图 灰度图 补: 如若只想快速预览灰度图的效果, 可`View(视图) Color display mode(色彩显示模式) Gray(灰度)` 阅读全文
posted @ 2019-01-18 11:03 默盒 阅读(1542) 评论(0) 推荐(0) 编辑
摘要: "Reference" 注 : 请不要包含空格 或者 将整段url放到浏览器里, 会产生空格等字符的替换, 再粘入markdown. Example: + Markdown Code: ` ` 其实, 这可以一定层次上解决GitHub的Markdown不解析$$的问题, 不过意外的是。。。博客园似乎 阅读全文
posted @ 2018-11-21 16:51 默盒 阅读(1881) 评论(0) 推荐(0) 编辑
摘要: "reference_opencv实现高斯核" "reference_MATLAB_fspecial函数说明" 阅读全文
posted @ 2018-11-13 20:05 默盒 阅读(2781) 评论(0) 推荐(1) 编辑
摘要: 在训练较大网络时, 往往想加载预训练的模型, 但若想在网络结构上做些添补, 可能出现问题一二... 一下是添补的几种情形, 此处以单输出回归任务为例: References: "末尾" "开头" "末尾合流_0" "末尾合流_1" 附相关问题: \ 开头 在名为convXd_Y的shape得到的是( 阅读全文
posted @ 2018-11-04 17:17 默盒 阅读(1937) 评论(0) 推荐(0) 编辑
摘要: 1. 关于多输入流: 由于本Mission是双输入, 导师要求尽量能使用Inception之诸, 于是输入便成了问题. __思考:__ 在Github上找到了keras inceptionV4进行对网络头尾的改进, 面对多输入, 询问别人, 给我推荐了keras中对层的操作, 用于merge各个输入 阅读全文
posted @ 2018-08-03 19:52 默盒 阅读(327) 评论(0) 推荐(0) 编辑
摘要: 笔者此处是一个回归任务, 最后一层是: 在最后一个Dense层前加上 即可. 阅读全文
posted @ 2018-06-27 17:02 默盒 阅读(4119) 评论(2) 推荐(0) 编辑
摘要: method 1 method 2 阅读全文
posted @ 2018-06-27 14:57 默盒 阅读(784) 评论(0) 推荐(0) 编辑