Pytorch学习:torch.nn

记录torch.nn模块中一些函数操作

1|0torch.nn.Linear()

torch.nn.Linear(in_features, out_features, bias=True, device=None, dtype=None)

全连接层: y=xAT+b

1|0参数
  • in_features:输入大小
  • out_features : 输出大小
  • bias : 是否增加偏置
  • 输入:[*, in_features]
  • 输出: [*, out_features]

2|0torch.nn.Embedding()

torch.nn.Embedding(num_embeddings, embedding_dim, padding_idx=None, max_norm=None, norm_type=2.0, scale_grad_by_freq=False, sparse=False, _weight=None, _freeze=False, device=None, dtype=None)

编码,将字符、数字甚至向量编码为向量

1|0参数
  • num_embeddings : 编码的字典的大小(字典中数据的个数)
  • embedding_dim : 编码后向量的维度
  • padding_idx : 将字典中某个字编码为0(个人理解)

输入: [* ]
输出:[*,embedding_dim ]

举个🌰:
某个字典中有num_embeddings个字(A、B、C...),对这些字进行编码,即每个字对应一个向量,且向量的维度为embedding_dim

1|0例子
embedding = nn.Embedding(10, 3) input = torch.LongTensor([[1, 2, 4, 5], [4, 3, 2, 9]]) embedding(input)

输出:

tensor([[[-0.0251, -1.6902, 0.7172], [-0.6431, 0.0748, 0.6969], [ 1.4970, 1.3448, -0.9685], [-0.3677, -2.7265, -0.1685]], [[ 1.4970, 1.3448, -0.9685], [ 0.4362, -0.4004, 0.9400], [-0.6431, 0.0748, 0.6969], [ 0.9124, -2.3616, 1.1151]]])

__EOF__

本文作者lhqwd
本文链接https://www.cnblogs.com/lhqwd/p/18048075.html
关于博主:评论和私信会在第一时间回复。或者直接私信我。
版权声明:本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!
声援博主:如果您觉得文章对您有帮助,可以点击文章右下角推荐一下。您的鼓励是博主的最大动力!
posted @   lhqwd  阅读(11)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 25岁的心里话
· 闲置电脑爆改个人服务器(超详细) #公网映射 #Vmware虚拟网络编辑器
· 零经验选手,Compose 一天开发一款小游戏!
· 通过 API 将Deepseek响应流式内容输出到前端
· AI Agent开发,如何调用三方的API Function,是通过提示词来发起调用的吗
点击右上角即可分享
微信分享提示