上一页 1 ··· 14 15 16 17 18 19 20 21 22 ··· 73 下一页
摘要: 阅读全文
posted @ 2022-03-09 14:17 Tomorrow1126 阅读(35) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/qq_27825451/article/details/90550890这个链接超级详细! class NeuralNet(nn.Module): pytorch中其实一般没有特别明显的Layer和Module的区别,不管是自定义层、自定义块、自定义模型, 阅读全文
posted @ 2022-03-09 14:04 Tomorrow1126 阅读(149) 评论(0) 推荐(0) 编辑
摘要: Tensor总结 (1)Tensor 和 Numpy都是矩阵,区别是前者可以在GPU上运行,后者只能在CPU上; (2)Tensor和Numpy互相转化很方便,类型也比较兼容 (3)Tensor可以直接通过print显示数据类型,而Numpy不可以 阅读全文
posted @ 2022-03-09 11:42 Tomorrow1126 阅读(804) 评论(0) 推荐(0) 编辑
摘要: 一、.to(device) 可以指定CPU 或者GPU device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu") # 单GPU或者CPU model.to(device) #如果是多GPU if torch.cud 阅读全文
posted @ 2022-03-09 11:38 Tomorrow1126 阅读(343) 评论(0) 推荐(0) 编辑
摘要: torch.device代表将torch.Tensor分配到的设备的对象,有cpu和cuda两种,这里的cuda就是gpu,至于为什么不直接用gpu与cpu对应,是因为gpu的编程接口采用的是cuda print(torch.cuda.is_available()) #cuda是否可用; print 阅读全文
posted @ 2022-03-09 11:04 Tomorrow1126 阅读(283) 评论(0) 推荐(0) 编辑
摘要: https://www.runoob.com/python/att-string-format.html print('{} {}'.format("name","gender")) print("网站名:{name}, 地址 {url}".format(name="菜鸟教程", url="www. 阅读全文
posted @ 2022-03-09 11:02 Tomorrow1126 阅读(24) 评论(0) 推荐(0) 编辑
摘要: 在pytorch中,tensor有一个requires_grad参数,如果设置为True,则反向传播时,该tensor就会自动求导。tensor的requires_grad的属性默认为False,若一个节点(叶子变量:自己创建的tensor)requires_grad被设置为True,那么所有依赖它 阅读全文
posted @ 2022-03-09 10:52 Tomorrow1126 阅读(70) 评论(0) 推荐(0) 编辑
摘要: correct+=(predicted==labels).sum() 一、Python自带sum() sum(iterable[, start]):iterable——可迭代对象,如:list、tuple、set等;start——固定相加的参数,默认为0。 sum([0, 1, 2]) -- > 3 阅读全文
posted @ 2022-03-09 10:49 Tomorrow1126 阅读(602) 评论(0) 推荐(0) 编辑
摘要: 一、_, predicted = torch.max(outputs.data, 1) 那么,这里的 下划线_ 表示什么意思? 首先,torch.max()这个函数返回的是两个值,第一个值是具体的value(我们用下划线_表示),第二个值是value所在的index(也就是predicted)。 那 阅读全文
posted @ 2022-03-09 10:34 Tomorrow1126 阅读(973) 评论(0) 推荐(0) 编辑
摘要: size()函数主要是用来统计矩阵元素个数,或矩阵某一维上的元素个数的函数。 参数numpy.size(a, axis=None)a:输入的矩阵axis:int型的可选参数,指定返回哪一维的元素个数。当没有指定时,返回整个矩阵的元素个数。 >>> a = np.array([[1,2,3],[4,5 阅读全文
posted @ 2022-03-09 10:27 Tomorrow1126 阅读(757) 评论(0) 推荐(0) 编辑
上一页 1 ··· 14 15 16 17 18 19 20 21 22 ··· 73 下一页