2、tensor数据的运算、numpy与Tensor互转、Tensor转cuda

原位操作(in-place),带“_”尾巴的都是原位操作,如x.add_(y) ,x被改变。

1、加法

复制代码
import torch as t
x=t.Tensor([[10,11],[20,21]]) #Tensor得到的是浮点型
#x=t.tensor([[10,11],[20,21]],dtype=float) #必须指定为浮点型,否则与元素同类型
y=t.rand_like(x) #若x不是浮点型,报错
y
#加法
x+y #方式一
t.add(x,y) #方式二
x.add(y) #方式三
z=t.empty(2,2) t.add(x,y,out=z) #方式四,先分配z的空间再赋值 z
复制代码

numpy与Tensor互转,共享内存,其一改变,都变。

import torch as t
a=t.ones(2) #默认浮点型
b=a.numpy() #Tensor→numpy
b
a.add_(1) #a、b的元素都变为2.
b
import numpy as nu
a=nu.ones(2) #默认浮点型
b=t.from_numpy(a) #numpy→Tensor
b

Tensor转cuda(GPU运算)

复制代码
import torch as t
x=t.Tensor([[10,11],[20,21]]) #Tensor得到的是浮点型
y=t.Tensor([[10,11],[20,21]]) #Tensor得到的是浮点型
if t.cuda.is_available(): #gpu上运算,如果不支持,代码块不执行
    x=x.cuda() #转cuda
    y=y.cuda()
    z=x+y
    print(z) #还在GPU里
    print(z.to("cpu")) #转到cpu展示
复制代码

 

posted @   夕西行  阅读(3724)  评论(0编辑  收藏  举报
编辑推荐:
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
阅读排行:
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义
· 地球OL攻略 —— 某应届生求职总结
· 提示词工程——AI应用必不可少的技术
· 字符编码:从基础到乱码解决
· SpringCloud带你走进微服务的世界
历史上的今天:
2019-04-03 SQL Server数据库中表的查
2019-04-03 SQL Server数据库中表的增、删、改
2019-04-03 连接SQL Server数据库
点击右上角即可分享
微信分享提示