上一页 1 2 3 4 5 6 7 8 9 ··· 18 下一页
摘要: 主要是三类 plain net , googlenet ,resnet https://www.jeremyjordan.me/convnet-architectures/ https://cv-tricks.com/cnn/understand-resnet-alexnet-vgg-incepti 阅读全文
posted @ 2019-01-16 01:32 Lucas_Yu 阅读(252) 评论(0) 推荐(0) 编辑
摘要: ILSVRC 2014 取得了最好的成绩的 GoogLeNet,及其核心结构—— Inception 这个结构与Google将网络弄深弄宽的做法一致。 Inception变宽了。 阅读全文
posted @ 2019-01-16 01:16 Lucas_Yu 阅读(259) 评论(0) 推荐(0) 编辑
摘要: VGG与 AlexNet 主要结构没有太大变化,无非就是由多个stage(卷积池化) 组成。 作者尝试了比较多的结构哦 阅读全文
posted @ 2019-01-16 01:01 Lucas_Yu 阅读(239) 评论(0) 推荐(0) 编辑
摘要: LeNet-5 , AlexNet, VGG 都符合的结构都符合正则表达式: 输入层 >(卷积层+ >池化层?)+ -->全连接层+ 实在看不过去,许多图画的真不咋的,对于许多人具有误导性,画好一张图需要一定的素养,特别是画给别人看时。 下面拿来几张图从不同的角度来展示AlexNet。 1. Ale 阅读全文
posted @ 2019-01-16 00:39 Lucas_Yu 阅读(209) 评论(0) 推荐(0) 编辑
摘要: 残差网络 阅读全文
posted @ 2019-01-15 18:18 Lucas_Yu 阅读(678) 评论(0) 推荐(0) 编辑
摘要: https://zhuanlan.zhihu.com/p/27084042 阅读全文
posted @ 2019-01-14 21:21 Lucas_Yu 阅读(101) 评论(0) 推荐(0) 编辑
摘要: 放弃幻想,全面拥抱Transformer:自然语言处理三大特征抽取器(CNN/RNN/TF)比较 阅读全文
posted @ 2019-01-14 21:14 Lucas_Yu 阅读(167) 评论(0) 推荐(0) 编辑
摘要: neirhttps://zhuanlan.zhihu.com/p/42417456 https://stackoverflow.com/questions/47781375/tensorflow-dataset-shuffle-large-dataset?rq=1 https://github.co 阅读全文
posted @ 2019-01-13 01:01 Lucas_Yu 阅读(174) 评论(0) 推荐(0) 编辑
摘要: tensorflow的keras实现搭配dataset,几种形式都工作! 讨论 tensorflow的keras 函数式,而不去讨论原生keras的,因为原生的keras的与dataset的搭配不好! 定义函数模型的方式有两种,其中一种能让原生的keras与dataset很好工作,另一种不能;本文讨论 tensorflow的keras与dataset花式搭配,感觉好自由哦! 阅读全文
posted @ 2019-01-11 19:35 Lucas_Yu 阅读(3729) 评论(0) 推荐(0) 编辑
摘要: tensorflow,keras Sequential模式 阅读全文
posted @ 2019-01-11 18:38 Lucas_Yu 阅读(1919) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 9 ··· 18 下一页