IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 数据结构与算法 -> CUDA加速——基于规约思想的数组元素求和 -> 正文阅读

[数据结构与算法]CUDA加速——基于规约思想的数组元素求和

数组元素求和,顾名思义就是求数组中所有元素的和,比如有数组X:

f6b5e71cbf2f3718d26dae92e0748ce4.png

X的所有元素和就是:

498c2d8329738d018328e78db5ba6ae1.png

如果按串行顺序求上式还是很好理解的,就是一个逐渐累加的过程,如下图,按照step1~stepn的步骤,依次计算S0,S1,S2,...,Sn-1,最后得到的Sn-1即是所有元素的和:

24bbc149c3f56ffe46cbaf7157d5115b.png


01

规约求和思想

以上串行顺序计算的step1~stepn是按照先后顺序依次执行的,那么如果是并行顺序求和呢?也即将多个求和步骤并行执行,而不是按照先后顺序执行,这时该怎么办?

0dbb85c1dadcb93d81c7894b14f21f34.png

由于step1~stepn中后步骤的计算结果依赖于前步骤的结果,必须等待前步骤计算结果出来之后才能开始后步骤的计算,如果直接对step1~stepn这n个步骤并行执行,显然是不能得到正确结果的,因为前步骤的结果还没出来后步骤就开始计算了。

为解上述问题,通常采用规约思想来并行计算。下面我们举一个简单的例子来说明规约思想,假设数组X有8个元素,现要使用规约思想求其元素和:

f916d6a6b7f1fbe955c22b23ec73cd61.png

步骤如下:

  • 将x0~x7两两分组:(x0,x1)、(x2,x3)、(x4,x5)、(x6,x7)。然后使用4个线程并行计算每组的元素和,得到4个求和结果:

    502cfe5d947a20b5b1c3499cc2f5f298.png

  • 再将上一步骤得到的4个求和结果两两分组:(S0,S1)、(S2,S3)。然后使用2个线程并行计算每组的元素和,得到2个求和结果:

    0217f59c2a8de64b42fec97c2114276a.png

  • 使用1个线程计算上一步骤得到的S4,S5之和,也即最终求和结果:

50f8b659d96c8fc2c10815211c4dd4e7.png

以上3个步骤可用下图表示,每个步骤都将数据两两分组,然后并行计算每组的元素和,最后得到一个结果,这就是规约的过程:

885cab525d548490e4ef2c4830327610.png


02

CUDA实现数组元素的规约求和

CUDA是为并行计算而生的,使用CUDA可以很容实现上述的数组规约求和算法。不过有一点需要注意,就是必须确保每个步骤的所有线程是同步的,也即所有线程计算完成之后再进入下一步骤的计算,否则会导致结果错误

比如假设上图的线程a、b、c已完成计算,但是线程d未完成计算,如果不等线程d完成计算就直接进入下一步骤计算S4和S5,由于线程d未完成计算,得到的S3是错误的值,这导致得到的S5也是错误的值,从而导致最终计算的S6也错了——这将导致错误的连锁反应。

在CUDA中,可以调用__syncthreads函数方便地同步同一个线程块中的所有线程,因此我们可以使用同一个线程块中的多个线程做规约运算。那么问题来了,如果数据量很大,一个线程块不能完成所有数据的规约运算该怎么办呢?答案是分块处理,将数据平均分成多个部分,每部分都分配给一个线程块做规约运算。因此每个线程块最后得到一个规约结果,最后再将多个规约结果求和,即得到最后结果。如下图所示:

096688966a4edffdc6d4e6790b554cac.png

也许这里有人会问,最后得到的多个规约结果还是得按照串行顺序求和呀,这样做有点脱裤子放屁了。我想说是这样,只不过最后得规约结果相对原始数据个数,已经少了很多很多了,因此其串行求和的耗时基本可以忽略。

CUDA核函数代码如下:

#define N (1536 * 20480)   //数据总长度


//Para为输入数组,长度为N
//blocksum_cuda存储所有线程块的规约结果
__global__?void?cal_sum_ker0(float?*Para,?float?*blocksum_cuda)
{
??//计算线程ID号
??//blockIdx.x为线程块的ID号
??//blockDim.x每个线程块中包含的线程总个数
??//threadIdx.x为每个线程块中的线程ID号
??int?tid?=?blockIdx.x?*?blockDim.x?+?threadIdx.x;


  if(tid < N)
  {
????for?(int?index?=?1;?index?<?blockDim.x;?index?=?(index*2))
    {
??????if?(threadIdx.x %?(index*2)?==?0)?
      { 
        Para[tid] += Para[tid + index];  //规约求和
      } 


      __syncthreads();  //同步线程块中的所有线程
    } 


    if(threadIdx.x == 0)   //整个数组相加完成后,将共享内存数组0号元素的值赋给全局内存数组0号元素,最后返回CPU端 
      blocksum_cuda[blockIdx.x] = Para[tid]; 
  }
}

上面代码的for循环,咋一看很难理解,没有关系,我们举个简单例子来说明就好了。假设:blockDim.x=8,也即每个线程块有8个线程;N=8,也即输入数组的长度为8。那么对于第0个线程块(其它线程块也类似),其包含线程id为0~7,计算过程如下,你是否已经发现,其计算过程就是上述讲的规约过程呀~

fb0dd2414404e1ac6757f24daa1be790.png

下面我们写代码来测试上方实现的规约算法是否正确:

首先,定义一个微秒级计时的类,用于计时:

class Timer_Us2
{
private:
  LARGE_INTEGER cpuFreq;
  LARGE_INTEGER startTime;
  LARGE_INTEGER endTime;
public:
  double rumTime;
  void get_frequence(void)
  {
    QueryPerformanceFrequency(&cpuFreq);   //获取时钟频率
  }


  void start_timer(void)
  {
    QueryPerformanceCounter(&startTime);    //开始计时
  }


  void stop_timer(char *str)
  {
    QueryPerformanceCounter(&endTime);    //结束计时
    rumTime = (((endTime.QuadPart - startTime.QuadPart) * 1000.0f) / cpuFreq.QuadPart);
    cout << str << rumTime << " ms" << endl;
  }


  Timer_Us2()    //构造函数
  {
    QueryPerformanceFrequency(&cpuFreq);
  }
};

接着是测试函数:

void?Cal_Sum_Test()?
{ 
  Timer_Us2 timer;
??//申请长度为N的float型动态内存
  float *test_d = (float *)malloc(N * sizeof(float));
  for (long long i = 0; i < N; i++)
  { 
????test_d[i]?=?0.5;??//将所有元素赋值为0.5
  } 


  double ParaSum = 0.0; 


  timer.start_timer();
??//在CPU端按顺序计算数组元素和
  for (long long i = 0; i < N; i++)
  { 
    ParaSum += test_d[i];  //CPU端数组累加 
  } 
  timer.stop_timer("CPU time:");
  cout << " CPU result = " << ParaSum << endl;  //显示CPU端结果 


  //设置每个线程块有1024个线程
  dim3 sumblock(1024);  
  //设置总共有多少个线程块
  dim3 sumgrid(((N%sumblock.x) ? (N/sumblock.x + 1) : (N/sumblock.x)));


  float *test_d_cuda;
  float *blocksum_cuda;
  float *blocksum_host = (float *)malloc(sizeof(float) * sumgrid.x);
  //申请GPU端全局内存
  cudaMalloc((void **)&test_d_cuda, sizeof(float) * N);
  cudaMalloc((void **)&blocksum_cuda, sizeof(float) * sumgrid.x);


  timer.start_timer();
  //将数据从CPU端拷贝到GPU端
??cudaMemcpy(test_d_cuda,?test_d,?sizeof(float)?*?N,?cudaMemcpyHostToDevice);
??//调用核函数进行规约求和
  cal_sum_ker0 << < sumgrid, sumblock >> > (test_d_cuda, blocksum_cuda); 
  //将每个线程块的规约求和结果拷贝到CPU端
  cudaMemcpy(blocksum_host, blocksum_cuda, sizeof(float) * sumgrid.x, cudaMemcpyDeviceToHost);
  //在CPU端对所有线程块的规约求和结果做串行求和
  double sum = 0.0;
  for(int i = 0; i < sumgrid.x; i++)
  {
    sum += blocksum_host[i];
  }


  timer.stop_timer("GPU time:");


  cout << " GPU result = " << sum << endl;   //显示GPU端结果


??//释放内存
  cudaFree(test_d_cuda);
  cudaFree(blocksum_cuda);
  free(blocksum_host);
  free(test_d);

运行结果如下,可以看到对1536*20480长度的数组求元素和,CPU和GPU的计算结果是一致的,不过GPU CUDA计算耗时反而比CPU更多了,一方面是因为GPU计算多了host与device端内存拷贝的耗时,另一方面是因为我们实现的CUDA规约算法没有做到优化的极致,还有不小的优化空间。那么接下来让我们继续尝试优化吧~

8aa8db2a2d1cba3e01a57dc120426819.png

欢迎扫码关注本微信公众号,接下来会不定时更新更加精彩的内容,敬请期待~

  数据结构与算法 最新文章
【力扣106】 从中序与后续遍历序列构造二叉
leetcode 322 零钱兑换
哈希的应用:海量数据处理
动态规划|最短Hamilton路径
华为机试_HJ41 称砝码【中等】【menset】【
【C与数据结构】——寒假提高每日练习Day1
基础算法——堆排序
2023王道数据结构线性表--单链表课后习题部
LeetCode 之 反转链表的一部分
【题解】lintcode必刷50题<有效的括号序列
上一篇文章      下一篇文章      查看所有文章
加:2021-09-28 00:12:11  更:2021-09-28 00:12:16 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年5日历 -2024/5/17 10:48:43-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码