您好,登录后才能下订单哦!
这篇文章给大家分享的是有关Ubuntu 9.04下如何实现CUDA编程的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。
CUDA SDK的实例都在src目录下,每一个实例都有一个自己的目录,例如deviceuery,在它的目录下还有一个编译时候使用的Makefile文件,这是编译单个项目的。现在我们将所有实例都编译一遍,在CUDA_SDK根目录下运行sudo make之后,可以在 /bin/linux/release下看到编译之后的可执行程序,运行即可看到结果。
这是deviceQuery的运行结果:
那么到这里相信读者应该想到了我们完全可以利用这些实例来创建我们自己的工程。再实例中有一个template,将该目录下src中的.cu、.cpp文件删除,将obj目录下的内容清空,这就成为一个空的CUDA工程,可以再src下编写程序,然后在Makefie中将编译的文件名修改正确,编译即可。所生成的执行文件在CUDA_SDK_HOME/bin/linux/release下。这里是一个测试代码,执行矩阵加法运算的:
1 #include
2 #include
3 #include
4 #include
5 #include
6
7 #define VEC_SIZE 16
8
9 //kernel function
10 __global__ void vecAdd(float* d_A,float* d_B,float* d_C)
11 {
12 int index=threadIdx.x;
13 d_C[index]=d_A[index]+d_B[index];
14 }
15
16 int main()
17 {
18 //得到分配空间的大小
19 size_t size=VEC_SIZE*sizeof(float);
20
21 //为本地分配内存
22 float* h_A=(float*)malloc(size);
23 float* h_B=(float*)malloc(size);
24 float* h_C=(float*)malloc(size);
25
26 //初始化
27 for (int i=0;i<VEC_SIZE;++I)< p>
28 {
29 h_A[i]=1.0;
30 h_B[i]=2.0;
31 }
32
33 //将本地内存的中的数据复制到设备中
34 float* d_A;
35 cudaMalloc((void**)&d_A,size);
36 cudaMemcpy(d_A,h_A,size,cudaMemcpyHostToDevice);
37
38 float* d_B;
39 cudaMalloc((void**)&d_B,size);
40 cudaMemcpy(d_B,h_B,size,cudaMemcpyHostToDevice);
41
42 //分配存放结果的空间
43 float* d_C;
44 cudaMalloc((void**)&d_C,size);
45
46 //定义16个线程
47 dim3 dimblock(16);
48 vecAdd<<<1,dimblock>>>(d_A,d_B,d_C);
49
50 //讲计算结果复制回主存中
51 cudaMemcpy(h_C,d_C,size,cudaMemcpyDeviceToHost);
52
53 //输出计算结果
54 for (int j=0;j<VEC_SIZE;++J)< p>
55 {
56 printf("%f\t",h_C[j]);
57 }
58
59 //释放主机和设备内存
60 cudaFree(d_A);
61 cudaFree(d_B);
62 cudaFree(d_C);
63
64 free(h_A);
65 free(h_B);
66 free(h_C);
67
68 return 0;
69 }
感谢各位的阅读!关于“Ubuntu 9.04下如何实现CUDA编程”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。