2013年3月1日

cublas矩阵乘

摘要: 神经网络中有大量的矩阵乘法运算,使用cuda来进行矩阵的乘法运算,可以大大提高神经网络的训练速度,于是学着使用cuda,由于NVIDIA已经提供了非常好的矩阵运算库cublas,所以应该是学着使用cublas,在使用中遇到了一些问题,记录一下,方便以后的查询。cublas中执行矩阵乘法运算的函数主要是:cublasSgemm /*用来处理单精度矩阵,也就是float型的*/cublasDgemm /*用来处理双精度矩阵,也就是double型的*/首先要注意的是cublas使用的是以列为主的存储方式,和c/c++中的以行为主的方式是不一样的,例如对于一个c/c++中的5*10的矩阵,将其转化为一 阅读全文

posted @ 2013-03-01 14:43 long0x0 阅读(6603) 评论(0) 推荐(1) 编辑

cublas矩阵乘

摘要: 神经网络中有大量的矩阵乘法运算,使用cuda来进行矩阵的乘法运算,可以大大提高神经网络的训练速度,于是学着使用cuda,由于NVIDIA已经提供了非常好的矩阵运算库cublas,所以应该是学着使用cublas,在使用中遇到了一些问题,记录一下,方便以后的查询。cublas中执行矩阵乘法运算的函数主要是:cublasSgemm /*用来处理单精度矩阵,也就是float型的*/cublasDgemm /*用来处理双精度矩阵,也就是double型的*/首先要注意的是cublas使用的是以列为主的存储方式,和c/c++中的以行为主的方式是不一样的,例如对于一个c/c++中的5*10的矩阵,将其转化为一 阅读全文

posted @ 2013-03-01 14:28 long0x0 阅读(582) 评论(0) 推荐(0) 编辑

导航