[Intro to Deep Learning with PyTorch -- L2 -- N15] Softmax function

The Softmax Function

In the next video, we'll learn about the softmax function, which is the equivalent of the sigmoid activation function, but when the problem has 3 or more classes.

 
 
 
复制代码
import numpy as np

def softmax(L):
    expL = np.exp(L)
    sumExpL = sum(expL)
    result = []
    for i in expL:
      result.append(i*1.0/sumExpL)

    return result
复制代码

 

posted @   Zhentiw  阅读(140)  评论(0编辑  收藏  举报
编辑推荐:
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
阅读排行:
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 开源Multi-agent AI智能体框架aevatar.ai,欢迎大家贡献代码
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· AI技术革命,工作效率10个最佳AI工具
历史上的今天:
2017-06-11 [Angular] Alternative Themes - Learn the Host-Context Selector
2017-06-11 [Angular] Separating Structural Styles From Theme Styles - Making Components Themeable
2016-06-11 [Angular 2] Component relative paths
2016-06-11 [TypeScript] Reflection and Decorator Metadata
点击右上角即可分享
微信分享提示