07 2021 档案
摘要:隐马尔可夫 作者:elfin 参考资料来源:《统计学习方法》第二版 本文主要基于李航老师的《统计学习方法》第二版与在学校期间残留的记忆书写,如有差池,望指教! Top Bottom 代码开源:https://github.com/firstelfin/HMM 1、隐马尔可夫简介 在很多人看来,H
阅读全文
摘要:Attention Is All You Need 作者:elfin 参考资料来源:transformer Top Bottom transformer家族近期炙手可热,不仅霸占了NLP领域的江山,在CV领域也有踢馆CNN的趋势 。那么它有那么牛吗?牛啊牛?在弱人工智能时代,没有永远的神,tra
阅读全文
摘要:You Only Learn One Representation: 对于多任务的统一网络 作者:elfin 参考资料来源:YOLOR Top Bottom 论文地址:https://arxiv.org/abs/2105.04206 项目地址:https://github.com/WongKinYi
阅读全文
摘要:Autoformer:用于长期序列预测的自相关分解Transformer 作者:elfin 参考资料来源:Autoformer 摘要 时间的长依赖预测是极端天气预警和长期能源消耗规划等实际应用的关键需求。本文研究时间序列的长期预测问题。先前的tranformer模型采用各种自我注意机制来发现长期
阅读全文
摘要:LV-VIT论文技术点分析 作者:elfin 参考资料来源:LV-VIT 本文转载于参考资源 论文:https://arxiv.org/pdf/2104.10858.pdf 项目:https://github.com/zihangJiang/TokenLabeling Top Bottom 1、总结
阅读全文
摘要:Unfold+fold 作者:elfin 参考资料来源:pytorch官网 Top Bottom 1、nn.Unfold nn.Unfold是pytorch实现的一个layer,那么这个layer是干嘛的呢? torch.nn.Unfold(kernel_size: Union[T, Tuple[T
阅读全文
摘要:超越CNN的transformer:VOLO 作者:elfin 参考资料来源:VOLO Transformer技术在CV领域大有"取代"CNN结构的趋势,但是不管是VIT、还是Swin Transformer感觉都差一点火候。这些引入“注意力”的模型在学者的手中,总是告诉我们其很美好,但是在实际
阅读全文