(原)softmax loss特征为何径向放射状分布(直观理解,非公式推导。。。)

转载请注明出处:

https://www.cnblogs.com/darkknightzh/p/12592291.html

 

本文仅为本人的一点理解,如有不正确的地方,或者读者已经懂了,则不用浪费时间看本文了O(∩_∩)O

softmax loss定义如下:

L=1mi=1mlog(eWyiTxi+byij=1neWjTxi+bj)

其中W为分类层的权重,x为分类层的输入特征,b为分类层的偏置。

上式eWyiTxi+byij=1neWjTxi+bj为softmax,即当前样本分为第i类的概率。

论文中当分类层为2个类别时,可视化后的特征(即上面公式中的)如下,均为径向放射状分布(图片来自center loss的论文)

特征径向放射状分布,原因如下图所示。假设w1w2为分类层两个类别的权重向量。x为某个特征(图中对应x1x2,指代优化前后的特征),且假定该特征对应类别为w1。由softmax loss的公式可见,若使得loss更小,需要当前样本正确分类的概率eWyiTxi+byij=1neWjTxi+bj更大,进一步需要eWyiTxi+byi更大(或者说eWyiTxi+byi增长的比eWjTxi+bj|jyi增长的更大)。

在忽略偏置b的情况下,由于Wx=Wxcos(θ),即W模长和x模长和Wx的夹角的乘积。若假定W不变,则有两种方式:

① 增大x,导致特征模长越来越大。

② 增大cos(θ),即降低Wx的夹角θ,因而导致xW方向上径向分布。

综合起来,特征便呈现径向放射状分布。

下面举一个简单的例子。假设x1w1w2上投影是0.4,0.3,x2投影是0.8,0.6,由于cos作为权重,导致最终在w1上增加的幅度大于在w2上增加的幅度,样本被分为第一类的概率增大(loss减小),因而下一时刻(即x2)会越来越呈现放射状(离原点越来越远,对应分类概率越来越大);另一方面,还需要分类正确,即xw1的夹角θ1小于xw2的夹角θ2,因而最终特征会沿着对应W的方向径向分布;综合起来,特征会呈现径向放射状分布。

posted on   darkknightzh  阅读(799)  评论(0编辑  收藏  举报

编辑推荐:
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
阅读排行:
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义
· 地球OL攻略 —— 某应届生求职总结
· 提示词工程——AI应用必不可少的技术
· Open-Sora 2.0 重磅开源!
· 周边上新:园子的第一款马克杯温暖上架

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5
点击右上角即可分享
微信分享提示