[Stats385] Lecture 05: Avoid the curse of dimensionality

Lecturer 咖中咖 Tomaso A. Poggio

Lecture slice

Lecture video

 


三个基本问题:

  • Approximation Theory: When and why are deep networks better than shallow networks?
  • Optimization: What is the landscape of the empirical risk?
  • Learning Theory: How can deep learning not overfit? 

 

Q1: 

貌似在说“浅层网络”也会有好表现的可行性。

但浅网络表达能力有限。

 

 

Q2,Q3: 

稀疏表达(sparse representation)和降维(dimensionality reduction)

一个是subspace,一个是union of subspaces,这就是降维和稀疏表达的本质区别。

 

When more parameters than data, let's increase the number of training data, training error starts rise from 0, conversely test error continues to decline.

 

posted @   郝壹贰叁  阅读(187)  评论(0编辑  收藏  举报
编辑推荐:
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
阅读排行:
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 单元测试从入门到精通
· 上周热点回顾(3.3-3.9)
· winform 绘制太阳,地球,月球 运作规律
点击右上角即可分享
微信分享提示