美文网首页CUDA
CUDA编程基础——并行矩阵乘法

CUDA编程基础——并行矩阵乘法

作者: 依米兒 | 来源:发表于2017-03-27 20:38 被阅读185次

<p>CUDA编程首先呢是分配thread以及block<p>

#include<stdio.h>
#include<time.h>
#include<cuda_runtime.h>   //cuda运行时间接口
#define Thread_Num 256     //每一block包含的线程数
#define Matrix_Size 10
const int block_num=(Matrix_Size+Thread_Num-1)/Thread_Num;

然后是两个基本的函数:
//打印设备信息

void printDeviceProp(const cudaDeviceProp &prop)
{
    printf("Device Name : %s.\n", prop.name);
    printf("totalGlobalMem : %d.\n", prop.totalGlobalMem);
    printf("sharedMemPerBlock : %d.\n", prop.sharedMemPerBlock);
    printf("regsPerBlock : %d.\n", prop.regsPerBlock);
    printf("warpSize : %d.\n", prop.warpSize);
    printf("memPitch : %d.\n", prop.memPitch);
    printf("maxThreadsPerBlock : %d.\n", prop.maxThreadsPerBlock);
    printf("maxThreadsDim[0 - 2] : %d %d %d.\n", prop.maxThreadsDim[0],    prop.maxThreadsDim[1], prop.maxThreadsDim[2]);
    printf("maxGridSize[0 - 2] : %d %d %d.\n", prop.maxGridSize[0], prop.maxGridSize[1], prop.maxGridSize[2]);
    printf("totalConstMem : %d.\n", prop.totalConstMem);
    printf("major.minor : %d.%d.\n", prop.major, prop.minor);
    printf("clockRate : %d.\n", prop.clockRate);
    printf("textureAlignment : %d.\n", prop.textureAlignment);
    printf("deviceOverlap : %d.\n", prop.deviceOverlap);
    printf("multiProcessorCount : %d.\n", prop.multiProcessorCount);
}

//初始化cuda

bool InitCUDA()
{
    int count;
    cudaGetDeviceCount(&count);
    if(count==0){
        fprintf(stderr,"three is no device.\n");
        return false;
    }
    int i;
    for(i=0;i<count;i++)
    {
        cudaDeviceProp prop;
        cudaGetDeviceProperties(&prop,i);
        printDeviceProp(prop);
        if(cudaGetDeviceProperties(&prop,i)==cudaSuccess){
            if(prop.major>=1){break;}
        }
    }
    if (i == count) {
        fprintf(stderr, "There is no device supporting CUDA 1.x.\n");
        return false;
    }
    cudaSetDevice(i);
    return true;
}

//接着随机生成两个矩阵

void matGen(float* a, int n)
{
    int i,j;
    for(i=0;i<n;i++)
    {
        for(j=0;j<n;j++)
        {
            a[i*n+j]=(float)rand()/(float)RAND_MAX+1.00;
        }
    }
}

//并行矩阵乘法函数,最主要的一部分

__global__ static void matMultCuda(const float* a,const float* b,float* c,int n,clock_t* time)
{
    const int tid=threadIdx.x;
    const int bid=blockIdx.x;

    //从 bid 和 tid 计算出这个 thread 应该计算的 row 和 column
    const int idx = bid * Thread_Num + tid;
    const int row = idx / n;
    const int column = idx % n;

    int i;
    //clock_t start;
    
    //每个block开始时记录
    if(tid==0) time[bid]=clock();

    //计算矩阵乘法
    if(row < n && column < n)
    {
        float t=0;
        for(i=0;i<n;i++)
        {
            t=t+a[row*n+i]+a[i*n+column];
        }
        c[row*n+column]=t;
    }
    //计算时间,记录结果,只在 thread 0(即 threadIdx.x = 0 的时候)进行,每个 block 都会记录开始时间及结束时间
    if (tid == 0) time[bid + block_num] = clock();
}

//运算完后打印出矩阵

void printMatrix(const float *A, const int n) {
    for(int i = 0; i < n; i++){
        for(int j = 0; j < n; j++){
            printf("%.2f" ,A[i*n+j]);
            printf(" ");
        }
        printf("\n");
    }
    printf("\n");
}

//最后我们来看一下主函数

int main()
{
    if(!InitCUDA()) return 0;
    float *a,*b,*c;
    int n=Matrix_Size;

    //分配内存
    a=(float*)malloc(sizeof(float)*n*n);
    b=(float*)malloc(sizeof(float)* n*n);
    c=(float*)malloc(sizeof(float)* n*n);

    //设置随机种子
    srand(0);

    //随机生成两个矩阵
    matGen(a,n);
    matGen(b,n);

    float *cuda_a,*cuda_b,*cuda_c;
    clock_t* time;

    //cudaMalloc 获取一块显卡内存
    cudaMalloc((void**)&cuda_a, sizeof(float)* n*n);
    cudaMalloc((void**)&cuda_b, sizeof(float)* n*n);
    cudaMalloc((void**)&cuda_c, sizeof(float)* n*n);
    cudaMalloc((void**)&time, sizeof(clock_t)* block_num*2);

    //cudaMemcpy 将产生的矩阵复制到显卡内存中
    //cudaMemcpyHostToDevice - 从内存复制到显卡内存
    //cudaMemcpyDeviceToHost - 从显卡内存复制到内存
    cudaMemcpy(a,cuda_a,sizeof(float)* n*n,cudaMemcpyHostToDevice);
    cudaMemcpy(b,cuda_b,sizeof(float)* n*n,cudaMemcpyHostToDevice);

    //printMatrix(cuda_a, n);
    //printMatrix(cuda_b, n);

    // 在CUDA 中执行函数 语法:函数名称<<<block 数目, thread 数目, shared memory 大小>>>(参数...);
    matMultCuda<<<block_num, Thread_Num, 0>>>(cuda_a,cuda_b,cuda_c,n,time);

    //把结果复制回内存中
    clock_t time_use[block_num*2];

    cudaMemcpy(c,cuda_c,sizeof(float)* n*n,cudaMemcpyDeviceToHost);
    cudaMemcpy(&time_use, time, sizeof(clock_t)* block_num * 2, cudaMemcpyDeviceToHost);

    printMatrix(a, n);
    printMatrix(b, n);
    printMatrix(c, n);

    //释放资源
    cudaFree(cuda_a);
    cudaFree(cuda_b);
    cudaFree(cuda_c);
    cudaFree(time);

    //把每个 block 最早的开始时间,和最晚的结束时间相减,取得总运行时间
    clock_t min_start, max_end;
    min_start = time_use[0];
    max_end = time_use[block_num];
    for (int i = 1; i < block_num; i++) 
    {
        if (min_start > time_use[i]) min_start = time_use[i];
        if (max_end < time_use[i + block_num]) max_end = time_use[i + block_num];
    }

    //核函数运行时间
    clock_t final_time = max_end - min_start;
    printf("gputime: %d\n", final_time);
    return 0;
}

相关文章

  • CUDA编程基础——并行矩阵乘法

    CUDA编程首先呢是分配thread以及block 然后是两个基本的函数://打印设备信息 //初始化cuda /...

  • cuda 矩阵乘法运算并行

    一直很好奇GPU做矩阵运算是怎么并行加速的,今天看了一些粗浅的东西,并总结整理出来。version:cuda 8 ...

  • CUDA 入门之 Ubuntu 系统下环境搭建

    CUDA 简介 CUDA 是由英伟达公司开发的并行计算平台和编程模型的统称。通过这个平台我们可以利用 GPU 并行...

  • cuda矩阵编程

    一、定义矩阵结构体 二、矩阵赋值 三、Device上执行矩阵计算 四、申明变量分配空间,数据传输 五、主函数 总结...

  • 《数据结构和算法分析C++版》第三版部分习题(1-3章)

    1.2 编程实现大数加法,乘法,和指数操作乘法采用了快速乘法的算法 1.6 稀疏矩阵(含0元素很多的矩阵mat[1...

  • 并行模式与算法(二)

    1.矩阵算法 在矩阵乘法中,第一个矩阵的列数和第二个矩阵的行数必须是相同的。如果需要进行并行计算,一种简单的策略是...

  • 深入理解CUDA点积运算

    最近一直在学习CUDA并行计算的相关知识。在学习《GPU高性能编程CUDA实战》(机械工业出版社)这本书时,遇到了...

  • 图形变换原理

    概述: 图形变换大体分为缩放,平移,拉伸,旋转.他们的原理是矩阵的乘法. 矩阵的乘法: 矩阵的乘法规则:两个矩阵相...

  • Machine Learning 学习笔记-复习线性代数

    矩阵 一个由m行n列元素排列成的矩形阵列 向量 n*1 的矩阵 矩阵基础运算 矩阵与向量的乘法 m*n 的矩阵 和...

  • 矩阵乘法在python中的表示

    从数学表达上来说,矩阵乘法有: 矩阵的乘法(matmul product):这就是线性代数里面的矩阵乘法 內积/点...

网友评论

    本文标题:CUDA编程基础——并行矩阵乘法

    本文链接:https://www.haomeiwen.com/subject/dbzrottx.html