CUDA的核心就是扩展了C/C++语法,提出了核函数的语法,使得单一在CPU上运算的函数,可以指定在GPU上计算。同时提供辅助的API完成一些计算相关的操作。
CUDA的扩展语法还是采用PRO*C/C++等类似的思想,就是预编译,CUDA提供了一个nvcc的预编译工具,该工具可以自动调用本地编译器,实现完整的编译过程。工具根据扩展名来识别,cuda的扩展语法源代码扩展名是.cu。
因为Visual Studio貌似采用UTF-8BOM编码,使得微软cl编译器在编译CUDA的头文件的时候,出现各种警告。本主题在附录简单介绍了一下编译器中源代码编码的设置选项。
测试代码证明,GPU的运算快的一米。
CUAD设备管理
-
cuda驱动管理的参考文档
https://docs.nvidia.com/cuda/cuda-driver-api/index.html
-
cuda驱动管理的库是:
cuda.lib
-
这里主要介绍设备管理,其他后面使用的时候,再根据需要介绍
- 初始化
- 版本管理
- 设备管理
- 基本上下文管理
- 上下文管理
- 错误处理
-
根据C/C++的兼容习惯,一般会定义一套跨平台的类型。
- 使用的时候略加注意即可。
检查CUDA版本
-
初始化驱动APU
-
CUresult cuInit ( unsigned int Flags )
- 参数必须是0
- 返回的类型是枚举类型:
CUresult
- CUDA_SUCCESS,
- CUDA_ERROR_INVALID_VALUE,
- CUDA_ERROR_INVALID_DEVICE,
- CUDA_ERROR_SYSTEM_DRIVER_MISMATCH,
- CUDA_ERROR_COMPAT_NOT_SUPPORTED_ON_DEVICE
- 该函数必须在调用任何驱动相关API之前调用。
-
-
获取CUDA的版本
-
CUresult cuDriverGetVersion ( int* driverVersion )
- 参数返回版本号,格式是
(1000 major + 10 minor)
,比如我的就是10010
- 返回的也是枚举类型,错误返回
- CUDA_ERROR_INVALID_VALUE
- 参数返回版本号,格式是
- 相关的两个API:
-
cudaDriverGetVersion
__host__ cudaError_t cudaDriverGetVersion ( int* driverVersion )
-
cudaRuntimeGetVersion
__host__ __device__ cudaError_t cudaRuntimeGetVersion ( int* runtimeVersion )
-
-
-
纯C/C++例子代码
#include <stdio.h>
#include <stdlib.h>
#include <cuda.h>
int main(int argc, char const *argv[])
{
// 1. 任何驱动API调用之前必须先初始化
CUresult re = cuInit(0);
if (re != CUDA_SUCCESS){
printf("cuda设备初始化失败!\n");
exit(EXIT_FAILURE);
}
printf("cuda设备初始化成功!\n");
// 2. 获取版本
int cu_version;
re = cuDriverGetVersion (&cu_version);
if(re == CUDA_SUCCESS){
printf("获取版本是:%d\n", cu_version);
}else{
printf("获取版本失败!\n");
}
return 0;
}
- 编译脚本
main: c01_version.c
@nvcc -o main.exe -l cuda c01_version.c
clean:
@del *.exe *.exp *.lib 2>nul
- 运行结果:
C:\01works\02cuda\c03cuda_kernel>main
cuda设备初始化成功!
获取版本是:10010
- CUDA扩展语法的例子代码
- CUDA的C/C++扩展语法主要提供了CPU运行与GPU设备运行代码的区分。
__host__ cudaError_t cudaDriverGetVersion ( int* driverVersion )
-
__host__ __device__ cudaError_t cudaRuntimeGetVersion ( int* runtimeVersion )
- 返回类型:cudaError_t:
typedef enumcudaError cudaError_t
:也是枚举类型,这个函数返回下面两个值之一(这个枚举的值很多)- cudaSuccess
- cudaErrorInvalidValue
- 返回类型:cudaError_t:
- 这个函数的两个扩展字:
__host__
与__device__
用来标识该函数能在什么设备上运行-
__host__
:CPU -
__device__
:GPU
-
#include <stdio.h>
#include <stdlib.h>
#include <cuda.h>
int main(int argc, char const *argv[])
{
int cu_version;
cudaError_t cu_re;
// 1. 获取cuda版本
cu_re = cudaDriverGetVersion(&cu_version);
if(cu_re == cudaSuccess){
printf("获取驱动版本是:%d\n", cu_version);
}else{
printf("获取驱动版本失败!\n");
}
// 2. 获取cuda运行时版本
cu_re = cudaRuntimeGetVersion(&cu_version);
if(cu_re == cudaSuccess){
printf("获取运行时版本是:%d\n", cu_version);
}else{
printf("获取运行时版本失败!\n");
}
return 0;
}
- 编译脚本
main: c01_version.c
@ # nvcc -o main.exe -l cuda c01_version.c
@ nvcc -o main.exe c02_version.cu
clean:
@del *.exe *.exp *.lib 2>nul
- 运行结果
C:\01works\02cuda\c03cuda_kernel>main
获取驱动版本是:10010
获取运行时版本是:10010
设备信息检测
- API
- 获取设备列表与数量
- CUresult cuDeviceGetCount ( int* count )
- CUresult cuDeviceGet ( CUdevice* device, int ordinal )
- 获取指定设备的name,id,属性,内存大小
- CUresult cuDeviceGetAttribute ( int* pi, CUdevice_attribute attrib, CUdevice dev )
- CUresult cuDeviceGetLuid ( char* luid, unsigned int* deviceNodeMask, CUdevice dev )
- CUresult cuDeviceGetUuid ( CUuuid* uuid, CUdevice dev )
- CUresult cuDeviceGetName ( char* name, int len, CUdevice dev )
- CUresult cuDeviceTotalMem ( size_t* bytes, CUdevice dev )
- 获取设备列表与数量
- CUuuid类型的定义
typedef struct CUuuid_st { /**< CUDA definition of UUID */
char bytes[16];
} CUuuid;
#endif
- 参数比较简答,返回值尽管很多,我们一般情况区分成功与失败即可。
- 其中属性比较繁琐一点,下面单独说明。
- API的使用例子代码
- 编译脚本与运行效果,就不再罗列。
#include <stdio.h>
#include <stdlib.h>
#include <cuda.h>
int main(int argc, char const *argv[]){
cuInit(0); // 不做错误处理了!
// 1. 获取设备的数量
CUresult re;
int count;
re = cuDeviceGetCount(&count);
if(re == CUDA_SUCCESS){
printf("设备数量为:%d\n", count);
}else{
printf("设备数量获取失败!\n");
}
for(int i =0; i < count; i++){
CUdevice device;
re = cuDeviceGet (&device, i);
if(re != CUDA_SUCCESS){
printf("获取设备%d失败!\n", i);
continue;
}
// 2. 获取设备的信息-uid
CUuuid uid;
cuDeviceGetUuid ( &uid, device);
printf("设备%d的uid:", i);
for(int j = 0; j < 16; j++){
printf("%02hhX", uid.bytes[j]);
}
printf("\n");
// UUID:一共32为16字节,字符串表示如右:1859B803-EA0D-5A37-74E4-73F6F9B208FF
// UUID格式:8-4-4-4-12
// 3. 获取设备的信息-lid
unsigned int lid;
unsigned int mask;
cuDeviceGetLuid ((char*)&lid, &mask, device);
printf("设备%d的mask:%u\n", i, mask);
printf("设备%d的uid:%u", i, lid);
printf("设备节点 :%u\n", lid & mask);
// 4. 获取设备的信息-name
char name[256] = {0};
cuDeviceGetName (name, sizeof(name) - 1, device);
printf("GPU设备名:%s\n", name);
// 5. 获取设备的信息-mem
size_t mem;
cuDeviceTotalMem (&mem, device);
printf("GPU内存大小:%zd Bytes\n", mem);
printf("GPU内存大小:%zd MBytes\n", mem/1024/1024);
}
return 0;
}
nvcc -o main.exe -l cuda c03_device.c
- 内存信息的cuda函数
-
__host__cudaError_t cudaMemGetInfo ( size_t* free, size_t* total )
- 返回总内存与剩余内存。
-
#include <stdio.h>
#include <stdlib.h>
#include <cuda.h>
int main(int argc, char const *argv[]){
size_t mem_free, mem_total;
cudaMemGetInfo (&mem_free, &mem_total);
printf("总内存:%zd Mbytes\n", mem_total/1024/1024);
printf("空余内存:%zd MBytes\n", mem_free/1024/1024);
return 0;
}
- 编译指令:
nvcc -o main.exe c04_device_mem.cu
设备属性检测
- cuDeviceGetAttribute函数
-
CUresult cuDeviceGetAttribute ( int* pi, CUdevice_attribute attrib, CUdevice dev )
- pi是返回的属性值
- attrib指定需要查询的属性;
- 指定设备
-
- 可以查询的属性,使用枚举类型预先定义,属性的枚举值太多,这儿不一一;列出,使用例子代码说明几个常用的.
#include <stdio.h>
#include <stdlib.h>
#include <cuda.h>
int main(int argc, char const *argv[]){
// 为了代码的简洁性,省略了异常处理
cuInit(0);
CUdevice device;
cuDeviceGet (&device, 0); // 本机只有一块GPU
// 属性1-兼容的最低版本
int major, minor;
cuDeviceGetAttribute(&major, CU_DEVICE_ATTRIBUTE_COMPUTE_CAPABILITY_MAJOR, device);
cuDeviceGetAttribute(&minor, CU_DEVICE_ATTRIBUTE_COMPUTE_CAPABILITY_MAJOR, device);
printf("兼容版本:%d.%d\n", major, minor);
// 属性2-CPU数量
int core_count;
cuDeviceGetAttribute(&core_count, CU_DEVICE_ATTRIBUTE_MULTIPROCESSOR_COUNT, device);
printf("GPU设备上的核数量:%d\n", core_count);
// 属性3-时钟频率
int kernel_rate;
cuDeviceGetAttribute(&kernel_rate, CU_DEVICE_ATTRIBUTE_CLOCK_RATE, device);
printf("GPU时钟频率:%0.2fGHz\n", kernel_rate*1e-6f);
// 属性4-内存频率与带宽
int mem_rate;
cuDeviceGetAttribute(&mem_rate, CU_DEVICE_ATTRIBUTE_MEMORY_CLOCK_RATE, device);
int bus_width;
cuDeviceGetAttribute(&bus_width, CU_DEVICE_ATTRIBUTE_GLOBAL_MEMORY_BUS_WIDTH, device);
printf("GPU内存时钟频率:%0.2fGHz,内存带宽:%d比特\n", mem_rate*1e-6f, bus_width);
// 属性5-L2缓存大小
int l2_size;
cuDeviceGetAttribute(&l2_size, CU_DEVICE_ATTRIBUTE_L2_CACHE_SIZE, device);
printf("L2缓存大小:%d MB\n", l2_size/1024/1024);
return 0;
}
- 编译命令:
nvcc -o main.exe -l cuda c05_attribute.c
- 运行结果:
C:\01works\02cuda\c03cuda_kernel>main
兼容版本:6.6
GPU设备上的核数量:10
GPU时钟频率:1.67GHz
GPU内存时钟频率:4.00GHz,内存带宽:192比特
L2缓存大小:1 MB
- cudaDeviceGetAttribute函数
- 这个函数是可以在GPU上运行的。
- 参数与上面一样,只是枚举类型的拼写不同。
__host__ __device__ cudaError_t cudaDeviceGetAttribute ( int* value, cudaDeviceAttr attr, int device )
#include <stdio.h>
#include <stdlib.h>
#include <cuda.h>
int main(int argc, char const *argv[]){
// 为了代码的简洁性,省略了异常处理
int kernel_count;
cudaDeviceGetAttribute (&kernel_count, cudaDevAttrMultiProcessorCount, 0);
printf("GPU设备上的核数量:%d\n", kernel_count);
return 0;
}
// nvcc -o main.exe c06_attribute.cu
- cudaGetDeviceProperties函数
-
__host__ cudaError_t cudaGetDeviceProperties ( cudaDeviceProp* prop, int device )
- 返回结构,结构包含基本上所有属性。
-
#include <stdio.h>
#include <stdlib.h>
#include <cuda.h>
int main(int argc, char const *argv[]){
// 为了代码的简洁性,省略了异常处理
cudaDeviceProp prop;
cudaGetDeviceProperties (&prop, 0);
printf("GPU设备上的核数量:%d\n", prop.multiProcessorCount);
return 0;
}
// nvcc -o main.exe c07_properties.cu
CUDA基本编程模式
CUDA扩展C语法
- cuda扩展了一种可以在核上调用的函数:核函数,这个函数的语法扩展体现在两个方面:
- 定义需要指定该函数在主机上运行,还是在GPU设备上运行:
-
__device__
:GPU上执行,GPU上调用; -
__host__
:CPU上执行,CPU上调用; -
__global__
:CPU上调用,GPU上执行;
-
- 调用函数需要指定分配的块数,以及块上的线程数。
-
MyKernel<<<blocksPerGrid, THREADS_PER_BLOCK>>>(函数的参数);
- 如果是在GPU上运行,则需要传递GPU内存地址。
-
- 定义需要指定该函数在主机上运行,还是在GPU设备上运行:
GPU调用函数定义
- 其中几个变量blockDim,blockIdx,threadIdx后面解释,是扩展C/C++语法的一部分。
#include <stdio.h>
#include <cuda.h>
/*
1. 定义核函数:
*/
__global__ void kernel_add(float* a, float *b, float *r){
int i = blockDim.x * blockIdx.x + threadIdx.x;
r[i] = a[i] + b[i];
}
GPU内存申请与拷贝
-
函数定义
- 内存分配:
__host__ __device__ cudaError_t cudaMalloc ( void** devPtr, size_t size )
- 内存拷贝:
__host__ cudaError_t cudaMemcpy ( void* dst, const void* src, size_t count, cudaMemcpyKind kind )
- 内存分配:
-
代码实现
// 2. GPU内存分配与初始化
// 2.1. CPU数据
int n = 1024 * 1024;
int size = n * sizeof(float);
float *cpu_a, *cpu_b, *cpu_r;
cpu_a = (float*)malloc(size);
cpu_b = (float*)malloc(size);
cpu_r = (float*)malloc(size);
// 初始化数cpu内存
for(int i=0; i < n; i++){
cpu_a[i] = 90.0;
cpu_b[i] = 10.0;
}
// 2.2. GPU内存
float *gpu_a, *gpu_b, *gpu_r;
cudaMalloc((void**)&gpu_a, size);
cudaMalloc((void**)&gpu_b, size);
cudaMalloc((void**)&gpu_r, size);
// 2.3. GPU数据
cudaMemcpy(gpu_a, cpu_a, size, cudaMemcpyHostToDevice);
cudaMemcpy(gpu_b, cpu_b, size, cudaMemcpyHostToDevice);
在GPU上调用函数
-
需要指定函数调用需要的GPU线程资源。
-
代码实现:
- 我们分配了512块
- 每个块分配的线程是1024 * 1024 / 512个线程。
// 3. 分配GPU
dim3 dimBlock(512); // 块数 blockDim封装了块的描述
dim3 dimGrid(n/512); // 每块的线程数,blockIdx封装了块中kernel的索引
// kernel被多个线程调用,线程的描述封装为threadIdx
// 4. 调用kernel
kernel_add<<<dimGrid, dimBlock>>>(gpu_a, gpu_b, gpu_r);
从GPU拷贝运算结果
- 运算结束,需要从GPU把数据拷贝到CPU内存,才能访问。
// 5. GPU返回数据
cudaMemcpy(cpu_r, gpu_r, size, cudaMemcpyDeviceToHost);
printf("%f\n", cpu_r[1]);
- 计算结束,需要释内存资源
- 包含CPU与GPU上资源
// 6. GPU内存释放
cudaFree(gpu_a);
cudaFree(gpu_b);
cudaFree(gpu_r);
free(cpu_a);
free(cpu_b);
free(cpu_r);
完整的程序代码
- 包含结尾附加了编译命令。
#include <stdio.h>
#include <cuda.h>
/*
1. 定义核函数:
*/
__global__ void kernel_add(float* a, float *b, float *r){
int i = blockDim.x * blockIdx.x + threadIdx.x;
r[i] = a[i] + b[i];
}
int main(int argc, char const *argv[]){
// 2. GPU内存分配与初始化
// 2.1. CPU数据
int n = 1024 * 1024;
int size = n * sizeof(float);
float *cpu_a, *cpu_b, *cpu_r;
cpu_a = (float*)malloc(size);
cpu_b = (float*)malloc(size);
cpu_r = (float*)malloc(size);
// 初始化数cpu内存
for(int i=0; i < n; i++){
cpu_a[i] = 90.0;
cpu_b[i] = 10.0;
}
// 2.2. GPU内存
float *gpu_a, *gpu_b, *gpu_r;
cudaMalloc((void**)&gpu_a, size);
cudaMalloc((void**)&gpu_b, size);
cudaMalloc((void**)&gpu_r, size);
// 2.3. GPU数据
cudaMemcpy(gpu_a, cpu_a, size, cudaMemcpyHostToDevice);
cudaMemcpy(gpu_b, cpu_b, size, cudaMemcpyHostToDevice);
// 3. 分配GPU
dim3 dimBlock(512); // 块数 blockDim封装了块的描述
dim3 dimGrid(n/512); // 每块的线程数,blockIdx封装了块中kernel的索引
// kernel被多个线程调用,线程的描述封装为threadIdx
// 4. 调用kernel
kernel_add<<<dimGrid, dimBlock>>>(gpu_a, gpu_b, gpu_r);
// 5. GPU返回数据
cudaMemcpy(cpu_r, gpu_r, size, cudaMemcpyDeviceToHost);
printf("%f\n", cpu_r[1]);
// 6. GPU内存释放
cudaFree(gpu_a);
cudaFree(gpu_b);
cudaFree(gpu_r);
free(cpu_a);
free(cpu_b);
free(cpu_r);
return 0;
}
// nvcc -o main.exe -Xcompiler /source-charset:utf-8 c08kernel_function.cu
运行结果
GPU运算结果观察GPU运算过程中的性能
- 下面是循环10000此调用产生的一个峰值。后面还会使用更加复杂的计算来评估这个性能优化的效果。
附录
1. 关于编译器对源代码编码的识别
-
因为VS2019默认支持的UTF-8编码支持带BOM的UTF-8,使用nvcc编译的时候,cl会报一大堆与编码UTF-8有关的警告。解决办法有两种:
- 关闭警告。这个只是回避问题,并没有解决问题;
- 关闭警告选项:
-w
- 关闭警告选项:
- 指定编码器使用的编码;
- 关闭警告。这个只是回避问题,并没有解决问题;
-
指定对源代码处理的编码
- 使用cl的编译选项(对所有源代码有效 ):
cl /Femain.exe /source-charset:utf-8 /link /execution-charset:utf-8 c01_readbmp.c
- 使用#pragma预处理扩展指令(只对当前文件的代码有效):
#pragma source_character_set("utf-8")
- 使用cl的编译选项(对所有源代码有效 ):
-
指定连接器使用的编码
- 使用link的链接选项
cl /Femain.exe /source-charset:utf-8 /link /execution-charset:utf-8 c01_readbmp.c
- 使用#pragma`预处理扩展指令
#pragma execution_character_set("utf-8")
- 使用link的链接选项
-
在nvcc中指定
nvcc -o main.exe -Xcompiler /source-charset:utf-8 c07_properties.cu
-
cuda的h文件的编码问题:
- 这个建议在编译命令行中指定代码的编码处理,如上。
- 下面是编译器对cuda的头文件的编码不一致导致的。
- 使用选项指定编码可以解决
网友评论