摘要:
Spatiotemporal Transformer for Video-based Person Re-identification Abstract Key issue: How to extract discriminative information from a tracklet. Pro 阅读全文
摘要:
Transformer Model 性质: 1. Transformer是Seq2Seq类模型. 2. ransformer不是RNN. 3.仅依赖attention和全连接层. 准确率远高于RNN类. 各种weights: \(weights \space\space \alpha_{ij} = 阅读全文
摘要:
Seq2Seq Model 缺陷: 由于Decoder的输入是且仅是Encoder输出在最后的$H_m$, 因此可能会丢失部分前面的信息, 并在序列越长此问题越严重. Attention 如何改进Seq2Seq model的遗忘问题 SimpleRNN + Attention: $S_0$现在不 阅读全文
摘要:
操作: Ctrl+A 全选所有对象, 然后使用滤镜渲染成灰度图, 至于这个RGB比值, 看个人需求, 标准情况下rgb2gray是 原始RGB图 灰度图 补: 如若只想快速预览灰度图的效果, 可`View(视图) Color display mode(色彩显示模式) Gray(灰度)` 阅读全文
摘要:
"Reference" 注 : 请不要包含空格 或者 将整段url放到浏览器里, 会产生空格等字符的替换, 再粘入markdown. Example: + Markdown Code: ` ` 其实, 这可以一定层次上解决GitHub的Markdown不解析$$的问题, 不过意外的是。。。博客园似乎 阅读全文
摘要:
"reference_opencv实现高斯核" "reference_MATLAB_fspecial函数说明" 阅读全文
摘要:
在训练较大网络时, 往往想加载预训练的模型, 但若想在网络结构上做些添补, 可能出现问题一二... 一下是添补的几种情形, 此处以单输出回归任务为例: References: "末尾" "开头" "末尾合流_0" "末尾合流_1" 附相关问题: \ 开头 在名为convXd_Y的shape得到的是( 阅读全文
摘要:
1. 关于多输入流: 由于本Mission是双输入, 导师要求尽量能使用Inception之诸, 于是输入便成了问题. __思考:__ 在Github上找到了keras inceptionV4进行对网络头尾的改进, 面对多输入, 询问别人, 给我推荐了keras中对层的操作, 用于merge各个输入 阅读全文