摘要: /Files/tandychao/tensor_features.txt 阅读全文
posted @ 2012-04-20 16:58 Tandy 阅读(119) 评论(0) 推荐(0) 编辑
摘要: /Files/tandychao/img_db2.zip 阅读全文
posted @ 2012-04-20 16:47 Tandy 阅读(119) 评论(0) 推荐(0) 编辑
摘要: /Files/tandychao/The_scale_of_edges.pdf/Files/tandychao/three.pdf 阅读全文
posted @ 2012-04-19 20:15 Tandy 阅读(150) 评论(0) 推荐(0) 编辑
摘要: /Files/tandychao/database1.rar/Files/tandychao/database1.zip 阅读全文
posted @ 2012-04-19 15:19 Tandy 阅读(154) 评论(0) 推荐(0) 编辑
摘要: Pattern Recognition and machine learning/Files/tandychao/Pattern_Recognition_and_Machine_Learning.pdf/Files/tandychao/error.pdf 阅读全文
posted @ 2012-04-15 20:11 Tandy 阅读(107) 评论(0) 推荐(0) 编辑
摘要: 图像处理领域的大部分source code:http://www.csee.wvu.edu/~xinl/reproducible_research.htmlhttps://netfiles.uiuc.edu/jbhuang1/www/resources/vision/index.htmlhttp://blog.csdn.net/alec1987/article/details/6762855 阅读全文
posted @ 2012-04-01 11:16 Tandy 阅读(184) 评论(2) 推荐(0) 编辑
摘要: Apache如果down了,尝试下面的。。。for i in $(fuser 80/tcp);do kill -n 9 $i;doneservice httpd restart另外,安装LAMP,建议看下面这个http://blog.chinaunix.net/space.php?uid=20496363&do=blog&cuid=1674161文中采用vi来编辑信息时,如果修改了信息,记得用:x保存退出。而不是直接用ctrl+z。另外,php的测试页,说的不详细,我再详细的说说:首先,如果Apache安装成功了,那么在浏览器输入服务器网址,会显示it works!字样。当然, 阅读全文
posted @ 2011-08-06 22:37 Tandy 阅读(279) 评论(0) 推荐(0) 编辑
摘要: 1. memory coalescing,保证内存融合。因为global memory在CC为1.x上是按照half wrap进行访问读写的,而在2.x上是按照wrap进行访问读写的。在显存中,有多个存储器控制器,负责对显存的读写,因此,一定要注意存储器控制器的负载均衡问题。每一个存储器控制器所控制的那片显存中的地址空间称为一个分区。连续的256Byte数据位于同一个分区,相邻的另一组256Byte数据位于另一个分区。访问global memory就是要让所有的分区同时工作。合并访问就是要求同一half-wrap中的thread按照一定byte长度访问对齐的段。在1.0和1.1上,half-w 阅读全文
posted @ 2011-06-03 19:08 Tandy 阅读(2859) 评论(0) 推荐(1) 编辑
摘要: 分配图像空间:IplImage* cvCreateImage(CvSize size, int depth, int channels); size: cvSize(width,height); depth: IPL_DEPTH_8U, IPL_DEPTH_8S, IPL_DEPTH_16U, IPL_DEPTH_16S, IPL_DEPTH_32S, IPL_DEPTH_32F, IPL_DEPTH_64F channels: 1, 2, 3 or 4. 注意数据为交叉存取.彩色图像的数据编排为b0 g0 r0 b1 g1 r1 ...举例:// 分配一个单通道字节图像IplImage* i 阅读全文
posted @ 2011-06-02 12:20 Tandy 阅读(695) 评论(0) 推荐(0) 编辑
摘要: 最近一直在做CUDA程序,优化了CT重建中的FDK算法,又开始结合FDK和volume rendering做点工作。CUDA程序的优化至关重要,常见的优化策略,可以总结为:1. 将串行代码并行化。这里说简单也简单,说难也难,比如,对比for循环,就可以很简单的直接拆开,并行。但是,如果是迭代算法,比如Gauss-Seidel迭代求解,那么,就需要整理Gauss-Seidel算法,提起共同项,然后并行。2. 尽量减少Host和Device之间的数据拷贝。拷贝一次,尽量多用。3. 在配置kernel的时候,分配合理的thread个数和block个数,使得device的使用达到最大化,充分利用硬件资 阅读全文
posted @ 2011-05-31 17:54 Tandy 阅读(1374) 评论(0) 推荐(0) 编辑