[Stats385] Lecture 03, Harmonic Analysis of Deep CNN

大咖秀,注意提问环节大家的表情,深入窥探大咖的心态,很有意思。

之前有NG做访谈,现在这成了学术圈流行。

 

Video: https://www.youtube.com/watch?v=oCohnBbmpLA

Lecture: https://stats385.github.io/assets/lectures/bolcskei-stats385-slides.pdf

调和分析 reading list:https://www.zhihu.com/question/28661999 


 

先提及了核方法,non-linear --> linear

Then, translation invariance.

    • Translation covariance

Deformation insensitivity

 

解释了一点random kenrel的validity。

这部分没获得什么启示。

 

CNNs in a nutshell

到底需要设计多大的网络能满足需求?这是个好问题。

 

四个话题

Topology reduction

    • Determine how fast the energy contained in the propagated signals (a.k.a. feature maps) decays across layers
    • Guarantee trivial null-space for feature extractor Φ
    • Specify the number of layers needed to have “most” of the input signal energy be contained in the feature vector
    • For a fixed (possibly small) depth, design CNNs that capture “most” of the input signal energy

 

1:09:00 / 1:35:39 左右提及的上述第三个话题有点意思。

大咖设计网络深度的理论依据原来于此。

 

1:12:00 / 1:35:39 左右提及的上述第四个话题,shallow network。

抛出一个问题:

Is it possible to disign a network of a certain number of layers to make sure 达到 lower bound?

浅层网咯的设计需要每层更多filters to pick out most of the input signal energy?

想起了什么?mobileNet的权衡参数link

  • 宽度乘数 α  :为了构建更小和更少计算量的网络,作者引入了宽度乘数 α ,作用是改变输入输出通道数,减少特征图数量,让网络变瘦。
  • 分辨率乘数 ρ :分辨率乘数用来改变输入数据层的分辨率,同样也能减少参数。

 

posted @   郝壹贰叁  阅读(204)  评论(0编辑  收藏  举报
编辑推荐:
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
阅读排行:
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 单元测试从入门到精通
· 上周热点回顾(3.3-3.9)
· winform 绘制太阳,地球,月球 运作规律
点击右上角即可分享
微信分享提示