摘要: PyTorch的三个抽象层次 Tensor: 可以认为是 可以运行在GPU上的 numpy的array 通过 dtype = torch.cuda.FloatTensor x = torch.randn(N,D_in).type(dtype) 使得在GPU上运行。 Variable: Node in 阅读全文
posted @ 2020-05-26 23:30 ChevisZhang 阅读(247) 评论(0) 推荐(0) 编辑
摘要: trouble: 我们把w1,w2放在session里会面临,每一步我们都会copy weights 在CPU/GPU之间,这样会导致运行非常缓慢 所以把w1,w2放入graph里,避免这种copy 提问: 为什么不把输入与labels: x,y 也放入graph 答: 在实际中,输入是mini-b 阅读全文
posted @ 2020-05-26 15:23 ChevisZhang 阅读(173) 评论(0) 推荐(0) 编辑
摘要: 选择使用深度学习框架的原因: 1. 随着网络的更加复杂,深度学习的计算图我们越来越难画出来了,框架能简单的画出来 2. 框架能帮助我们算梯度 3. 框架帮助我们合理利用GPU 我们不用考虑写cuda代码或者cuDNN cuBLAS 使用numpy写forward and backward: 1. 只 阅读全文
posted @ 2020-05-26 14:29 ChevisZhang 阅读(149) 评论(0) 推荐(0) 编辑
摘要: GPU vs CPU GPU: 核心数: GPU比CPU有更多的核,但是单个核运行很慢,它们之前其实是相互合作而不是单独运行,所以不能直接以cores to cores这样直接比较。 运行速率:优点是,因为有更多的核,所以在做并行任务,且本质相近的事务时,GPU的处理能力很棒 例如: 神经网络里的矩 阅读全文
posted @ 2020-05-26 11:29 ChevisZhang 阅读(284) 评论(0) 推荐(0) 编辑