07 2023 档案

摘要:# 导读 重磅模型**transformer**,在2017年发布,但就今天来说产生的影响在各个领域包括NLP、CV这些都是巨大的! Paper《[Attention Is All You Need](https://arxiv.org/pdf/1706.03762.pdf)》,作者是在机器翻译这个 阅读全文
posted @ 2023-07-14 18:03 Hjxin02Aisharing 阅读(614) 评论(0) 推荐(0) 编辑
摘要:# 1. 在github上创建一个Repository - 点击[github](https://github.com/)网站,你可以用你的邮箱先注册一个账号。 - 点击New,转到创建一个repository的界面,如下图所示,你可以填写你的Repository name、description、 阅读全文
posted @ 2023-07-11 17:10 Hjxin02Aisharing 阅读(255) 评论(0) 推荐(0) 编辑
摘要:# 导读 ResNet在ILSVRC 2015竞赛中大放异彩,其核心模块residual block使得卷积网络模型深度提高一个数量级,到达上百、上千层。在今天cv领域我们也经常用到它或它的变种,paper《[Deep Residual Learning for Image Recognition] 阅读全文
posted @ 2023-07-11 11:04 Hjxin02Aisharing 阅读(111) 评论(0) 推荐(0) 编辑
摘要:# 1. 导读 前面我们回顾了AlexNet,AlexNet的作者指出模型的深度很重要,而VGG最大的贡献就在于对网络模型深度的研究。 VGG原论文:《[Very Deep Convolutional Networks for Large-Scale Image Recognition](https 阅读全文
posted @ 2023-07-10 10:33 Hjxin02Aisharing 阅读(212) 评论(0) 推荐(0) 编辑
摘要:# 0.Paper 这是我们2022年的工作,关于雾中的单目自监督深度估计研究: > **Self-supervised monocular depth estimation in fog** > >Bo Tao**†**, Jiaxin Hu**†**, Du Jiang, Gongfa Li, 阅读全文
posted @ 2023-07-07 14:18 Hjxin02Aisharing 阅读(537) 评论(0) 推荐(0) 编辑
摘要:# 1.导读 ALexNet在2012图像识别竞赛中ILSVRC大放异彩,直接将错误了降低了近10个百分点。 论文《**ImageNet Classification with Deep Convolutional Neural Networks**》,链接点击[here](https://dl.a 阅读全文
posted @ 2023-07-05 17:21 Hjxin02Aisharing 阅读(100) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示