在torch中softmax的使用

## 在torch中softmax的使用在torch中softmax的使用

在哪一维度上进行softmax操作,哪一维度的值之和为1

class Fc(nn.Module):
    def __init__(self, in_channel, out_channel):
        super(Fc, self).__init__()
        self.in_channel = in_channel
        self.out_channel = out_channel
        self.fc = nn.Linear(self.in_channel, self.out_channel)
    def forward(self, x):
        # x shape: (T, N, C)
        y = self.fc(x)
        y = F.softmax(y, dim=2)
        return y
if __name__ == "__main__":
    T, N, C = 1, 4, 64
    x = torch.randn((T, N, C))
    model = Fc(C, 60)
    y = model(x)
    a = 0
    for i in y[0, 0, :]:
        a = a + i
    print(a)

输出:

tensor(1.0000, grad_fn=<AddBackward0>)
torch.Size([1, 4, 60])
posted @   Guang'Jun  阅读(2665)  评论(0编辑  收藏  举报
编辑推荐:
· go语言实现终端里的倒计时
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
阅读排行:
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 使用C#创建一个MCP客户端
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· ollama系列1:轻松3步本地部署deepseek,普通电脑可用
· 按钮权限的设计及实现
点击右上角即可分享
微信分享提示
主题色彩
主题色彩