IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> [每日一氵] Nsight Systems (nsys) 使用记录以及cuda程序优化 -> 正文阅读

[人工智能][每日一氵] Nsight Systems (nsys) 使用记录以及cuda程序优化

主要内容来自这个课程界面:
https://www.nvidia.cn/training/instructor-led-workshops/

Nsight Systems (nsys) 原来这么有用啊,我每次安装cuda的时候,都不安装他,不过配置DL环境确实不需要[手动狗头]

这样运行文件

nvcc -o xx xx.cu -run

Nsys这么用

# 运用 nsys profile 分析刚编译好的可执行文件
nsys profile --stats=true ./xx

nsys profile将生成一个qdrep报告文件,该文件可以以多种方式使用。 我们在这里使用--stats = true标志表示我们希望打印输出摘要统计信息。 输出的信息有很多,包括:

  • 配置文件配置详细信息
  • 报告文件的生成详细信息
  • CUDA API统计信息
  • CUDA核函数的统计信息
  • CUDA内存操作统计信息(时间和大小)
  • 操作系统内核调用接口的统计信息

如下:

Warning: LBR backtrace method is not supported on this platform. DWARF backtrace method will be used.
Collecting data...
Success! All values calculated correctly.
Processing events...
Capturing symbol files...
Saving temporary "/tmp/nsys-report-a10b-4a77-7d5c-f462.qdstrm" file to disk...
Creating final output files...

Processing [==============================================================100%]
Saved report file to "/tmp/nsys-report-a10b-4a77-7d5c-f462.qdrep"
Exporting 22723 events: [=================================================100%]

Exported successfully to
/tmp/nsys-report-a10b-4a77-7d5c-f462.sqlite


CUDA API Statistics: # CUDA API统计信息

 Time(%)  Total Time (ns)  Num Calls    Average     Minimum    Maximum           Name         
 -------  ---------------  ---------  -----------  ---------  ---------  ---------------------
    55.9        220024635          3   73341545.0      35564  219942207  cudaMallocManaged    
    39.1        154081013          1  154081013.0  154081013  154081013  cudaDeviceSynchronize
     5.0         19599393          3    6533131.0    5868170    7536695  cudaFree             
     0.0            54357          1      54357.0      54357      54357  cudaLaunchKernel     



CUDA Kernel Statistics: # CUDA核函数的统计信息

 Time(%)  Total Time (ns)  Instances    Average     Minimum    Maximum                      Name                    
 -------  ---------------  ---------  -----------  ---------  ---------  -------------------------------------------
   100.0        154061080          1  154061080.0  154061080  154061080  addVectorsInto(float*, float*, float*, int)



CUDA Memory Operation Statistics (by time): # CUDA内存操作统计信息(时间)

 Time(%)  Total Time (ns)  Operations  Average  Minimum  Maximum              Operation            
 -------  ---------------  ----------  -------  -------  -------  ---------------------------------
    82.6         99842969       20879   4782.0     1823   169216  [CUDA Unified Memory memcpy HtoD]
    17.4         21020960         768  27371.0     1375   159872  [CUDA Unified Memory memcpy DtoH]



CUDA Memory Operation Statistics (by size in KiB): # CUDA内存操作统计信息(大小)

   Total     Operations  Average  Minimum  Maximum               Operation            
 ----------  ----------  -------  -------  --------  ---------------------------------
 393216.000       20879   18.833    4.000  1012.000  [CUDA Unified Memory memcpy HtoD]
 131072.000         768  170.667    4.000  1020.000  [CUDA Unified Memory memcpy DtoH]



Operating System Runtime API Statistics: # 操作系统内核调用接口的统计信息

 Time(%)  Total Time (ns)  Num Calls   Average    Minimum   Maximum        Name     
 -------  ---------------  ---------  ----------  -------  ---------  --------------
    53.9       1349784189         74  18240326.9    24368  100131135  poll          
    41.7       1042453633         74  14087211.3    15428  100074482  sem_timedwait 
     3.5         87328279        587    148770.5     1023   16811695  ioctl         
     0.9         21850661         90    242785.1     1235    7474212  mmap          
     0.0           624849         77      8114.9     2460      18975  open64        
     0.0           113233          4     28308.3    23925      32553  pthread_create
     0.0           107072         23      4655.3     1296      13371  fopen         
     0.0            86168          3     28722.7    20436      43529  fgets         
     0.0            85314         11      7755.8     4313      13945  write         
     0.0            40344         14      2881.7     1294       4315  munmap        
     0.0            29311         16      1831.9     1057       3519  fclose        
     0.0            27759          5      5551.8     2789       8032  open          
     0.0            26388         13      2029.8     1114       3558  read          
     0.0            16141          3      5380.3     3831       6160  pipe2         
     0.0             8240          2      4120.0     3544       4696  socket        
     0.0             7423          2      3711.5     1435       5988  fgetc         
     0.0             6363          4      1590.8     1442       1841  mprotect      
     0.0             6290          2      3145.0     2664       3626  fread         
     0.0             5900          1      5900.0     5900       5900  connect       
     0.0             4790          2      2395.0     1221       3569  fcntl         
     0.0             1913          1      1913.0     1913       1913  bind          
     0.0             1418          1      1418.0     1418       1418  listen        

Report file moved to "/xxx/task/report3.qdrep"
Report file moved to "/xxx/task/report3.sqlite"

由于 GPU 上的 SM 数量会因所用的特定 GPU 而异,因此为支持可移植性,我们不能将 SM 数量硬编码到代码库中。相反,应该以编程方式获取此信息。

以下所示为在 CUDA C/C++ 中获取 C 结构的方法,该结构包含当前处于活动状态的 GPU 设备的多个属性,其中包括设备的 SM 数量:

int deviceId;
cudaGetDevice(&deviceId);                  // `deviceId` now points to the id of the currently active GPU.

cudaDeviceProp props;
cudaGetDeviceProperties(&props, deviceId); // `props` now has many useful properties about
                                           // the active GPU device.

具体的属性名称可以参考这里:
https://docs.nvidia.com/cuda/cuda-runtime-api/structcudaDeviceProp.html

查询信息的时候这样用:

#include <stdio.h>

int main()
{
  /*
   * Assign values to these variables so that the output string below prints the
   * requested properties of the currently active GPU.
   */

  int deviceId;
  int computeCapabilityMajor;
  int computeCapabilityMinor;
  int multiProcessorCount;
  int warpSize;
  
  cudaGetDevice(&deviceId);
  cudaDeviceProp prop;
  cudaGetDeviceProperties(&prop, deviceId);
  
  warpSize = prop.warpSize;
  multiProcessorCount = prop.multiProcessorCount;
  computeCapabilityMajor = prop.major;
  computeCapabilityMinor = prop.minor;
  

  /*
   * There should be no need to modify the output string below.
   */

  printf("Device ID: %d\nNumber of SMs: %d\nCompute Capability Major: %d\nCompute Capability Minor: %d\nWarp Size: %d\n", 
  deviceId, 
  multiProcessorCount, 
  computeCapabilityMajor, 
  computeCapabilityMinor, 
  warpSize);
}

另外,重点理解这句话:
在这里插入图片描述
优化一个cuda程序,大概有以下几个方向:

  • 将变量初始化在GPU上,或者用 cudaMemPrefetchAsync 异步搬运,搬到GPU上,然后再搬回来
  • 修改核函数,加上stride 如上边那个截图
  • 读取GPU上SM数量,cudaDeviceGetAttribute(&numberOfSMs, cudaDevAttrMultiProcessorCount, deviceId);根据这个数量给CUDA核函数传入block/grid数和thread/block数
  • 除了节省GPU跑的时间,也得节省开发者的时间,加上这个,时间不会消耗多少的:
cudaError_t kernelFuncErrs;
cudaError_t asyncErr;

kernelFunc<<<numberOfBlocks, threadsPerBlock>>>(c, a, b, N);

kernelFuncErrs= cudaGetLastError();
if(kernelFuncErrs != cudaSuccess) printf("Error: %s\n", cudaGetErrorString(kernelFuncErrs));

asyncErr = cudaDeviceSynchronize();
if(asyncErr != cudaSuccess) printf("Error: %s\n", cudaGetErrorString(asyncErr));
  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-12-13 12:48:58  更:2021-12-13 12:51:14 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/27 0:35:40-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码