ImageVerifierCode 换一换
格式:PPTX , 页数:80 ,大小:2.24MB ,
文档编号:4370843      下载积分:28 文币
快捷下载
登录下载
邮箱/手机:
温馨提示:
系统将以此处填写的邮箱或者手机号生成账号和密码,方便再次下载。 如填写123,账号和密码都是123。
支付方式: 支付宝    微信支付   
验证码:   换一换

优惠套餐
 

温馨提示:若手机下载失败,请复制以下地址【https://www.163wenku.com/d-4370843.html】到电脑浏览器->登陆(账号密码均为手机号或邮箱;不要扫码登陆)->重新下载(不再收费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录  
下载须知

1: 试题类文档的标题没说有答案,则无答案;主观题也可能无答案。PPT的音视频可能无法播放。 请谨慎下单,一旦售出,概不退换。
2: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
3: 本文为用户(晟晟文业)主动上传,所有收益归该用户。163文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

1,本文(CUDA-C编程权威指南.pptx)为本站会员(晟晟文业)主动上传,163文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。
2,用户下载本文档,所消耗的文币(积分)将全额增加到上传者的账号。
3, 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(发送邮件至3464097650@qq.com或直接QQ联系客服),我们立即给予删除!

CUDA-C编程权威指南.pptx

1、CUDA-C编程权威指南01技术审校者简介技术审校者简介021 基于CUDA的异构并行计算1 1 基于基于CUDACUDA的异构并行计算的异构并行计算1.1 并行计算1.2 异构计算1.3 用GPU输出Hello World1.6 习题1.5 总结1.4 使用CUDA C编程难吗LOGOLOGOhttps:/1 1 基于基于CUDACUDA的异构并行的异构并行计算计算1.1 并行计算1.1.1 串行编程和并行编程1.1.2 并行性1.1.3 计算机架构1 1 基于基于CUDACUDA的异构并行计算的异构并行计算1.2 异构计算CBA1.2.1 异构架构1.2.2 异构计算范例1.2.3 CUD

2、A:一种异构计算平台032 CUDA编程模型2 CUDA2 CUDA编程模型编程模型010103032.1 CUDA编程模型概述2.2 给核函数计时2.3 组织并行线程02020404050506062.4 设备管理2.5 总结2.6 习题2 CUDA2 CUDA编程模型编程模型2.1 CUDA编程模型概述2.1.1 CUDA编程结构01012.1.2 内存管理02022.1.3 线程管理03032.1.4 启动一个CUDA核函数04042.1.5 编写核函数05052.1.6 验证核函数06062 CUDA2 CUDA编程模型编程模型2.1 CUDA编程模型概述2.1.7 处理错误1 12.

3、1.8 编译和执行2 22 CUDA2 CUDA编程模型编程模型2.2 给核函数计时A2.2.1 用CPU计时器计时2.2.2 用nvprof工具计时B2 CUDA2 CUDA编程模型编程模型2.3 组织并行线程2.3.1 使用块和线程建立矩阵索引2.3.2 使用二维网格和二维块对矩阵求和2.3.3 使用一维网格和一维块对矩阵求和2.3.4 使用二维网格和一维块对矩阵求和2.4 设备管理2 CUDA2 CUDA编程模型编程模型2.4.1 使用运行时API查询GPU信息2.4.2 确定最优GPU2.4.3 使用nvidia-smi查询GPU信息2.4.4 在运行时设置设备CAB043 CUDA执

4、行模型3 CUDA3 CUDA执行模型执行模型3.1 CUDA执行模型概述3.2 理解线程束执行的本质3.3 并行性的表现3.6 动态并行3.5 展开循环3.4 避免分支分化3 CUDA3 CUDA执行模型执行模型3.7 3.7 总总结结3.8 3.8 习习题题3.1 CUDA执行模型概述3 CUDA3 CUDA执行模型执行模型3.1.1 GPU架构概述3.1.2 Fermi架构3.1.3 Kepler架构3.1.4 配置文件驱动优化3.2 理解线程束执行的本质3 CUDA3 CUDA执行模型执行模型3.2.1 线程束和线程块3.2.2 线程束分化3.2.3 资源分配3.2.6 同步3.2.5

5、 占用率3.2.4 延迟隐藏3 CUDA3 CUDA执行模型执行模型3.2 理解线程束执行的本质3.2.7 可扩展性3 CUDA3 CUDA执行模型执行模型3.3 并行性的表现3.3.1 用nvprof检测活跃的线程束01013.3.2 用nvprof检测内存操作02023.3.3 增大并行性03033 CUDA3 CUDA执行模型执行模型3.4 避免分支分化3.4.1 并行归约问题3.4.2 并行归约中的分化3.4.3 改善并行归约的分化3.4.4 交错配对的归约3 CUDA3 CUDA执行模型执行模型3.5 展开循环01013.5.1 展开的归约02023.5.2 展开线程的归约0 03

6、33.5.3 完全展开的归约0 04 43.5.4 模板函数的归约3 CUDA3 CUDA执行模型执行模型3.6 动态并行3.6.1 嵌套执行3.6.2 在GPU上嵌套Hello World3.6.3 嵌套归约054 全局内存4 4 全局内存全局内存01014.1 CUDA内存模型概述02024.2 内存管理0 03 34.3 内存访问模式0 04 44.4 核函数可达到的带宽0 05 54.5 使用统一内存的矩阵加法0 06 64.6 总结4 4 全局内存全局内存4.7 习题4 4 全局内存全局内存4.1 CUDA内存模型概述4.1.2 CUDA内存模型4.1.1 内存层次结构的优点4.2

7、内存管理4 4 全局内存全局内存4.2.1 内存分配和释放4.2.2 内存传输4.2.3 固定内存4.2.6 统一内存寻址4.2.5 统一虚拟寻址4.2.4 零拷贝内存4 4 全局内存全局内存4.3 内存访问模式4.3.1 对齐与合并访问01014.3.2 全局内存读取02024.3.3 全局内存写入03034.3.4 结构体数组与数组结构体04044.3.5 性能调整05054 4 全局内存全局内存4.4 核函数可达到的带宽4.4.1 内存带宽4.4.2 矩阵转置问题065 共享内存和常量内存5 5 共享内存和常量内存共享内存和常量内存5.1 CUDA共享内存概述5.2 共享内存的数据布局5

8、.3 减少全局内存访问5.6 线程束洗牌指令5.5 常量内存5.4 合并的全局内存访问5 5 共享内存和常量内存共享内存和常量内存AB5.7 5.7 总结总结5.8 5.8 习题习题5 5 共享内存和常量内存共享内存和常量内存5.1 CUDA共享内存概述5.1.1 共享内存01015.1.2 共享内存分配02025.1.3 共享内存存储体和访问模式03035.1.4 配置共享内存量04045.1.5 同步05055 5 共享内存和常量内存共享内存和常量内存5.2 共享内存的数据布局A5.2.1 方形共享内存5.2.2 矩形共享内存B5 5 共享内存和常量内存共享内存和常量内存5.3 减少全局内

9、存访问5.3.1 使用共享内存的并行归约5.3.2 使用展开的并行归约5.3.3 使用动态共享内存的并行归约5.3.4 有效带宽5.4 合并的全局内存访问5 5 共享内存和常量内存共享内存和常量内存5.4.2 使用共享内存的矩阵转置5.4.4 使用展开的矩阵转置5.4.1 基准转置内核5.4.3 使用填充共享内存的矩阵转置5.4.5 增大并行性5 5 共享内存和常量共享内存和常量内存内存5.5 常量内存A5.5.2 与只读缓存的比较5.5.1 使用常量内存实现一维模板5.6 线程束洗牌指令5 5 共享内存和常量内存共享内存和常量内存5.6.2 线程束内的共享数据5.6.1 线程束洗牌指令的不同

10、形式5.6.3 使用线程束洗牌指令的并行归约076 流和并发6 6 流和并发流和并发01016.1 流和事件概述02026.2 并发内核执行0 03 36.3 重叠内核执行和数据传输0 04 46.4 重叠GPU和CPU执行0 05 56.5 流回调0 06 66.6 总结6 6 流和并发流和并发6.7 习题6 6 流和并发流和并发6.1 流和事件概述6.1.1 6.1.1 CUDACUDA流流6.1.2 6.1.2 流流调度调度6.1.5 6.1.5 流流同步同步6.1.4 6.1.4 CUDACUDA事件事件6.1.3 6.1.3 流流的优先级的优先级6.2 并发内核执行6 6 流和并发流

11、和并发6.2.2 Fermi GPU上的虚假依赖关系6.2.4 用环境变量调整流行为6.2.6 默认流的阻塞行为6.2.1 非空流中的并发内核6.2.3 使用OpenMP的调度操作6.2.5 GPU资源的并发限制6 6 流和并发流和并发6.2 并发内核执行6.2.7 创建流间依赖关系6 6 流和并发流和并发6.3 重叠内核执行和数据传输6.3.1 使用深度优先调度重叠6.3.2 使用广度优先调度重叠087 调整指令级原语7 7 调整指令级原语调整指令级原语01017.1 CUDA指令概述7.2 程序优化指令02027.3 总结03037.4 习题04047 7 调整指令级原语调整指令级原语7.

12、1 CUDA指令概述CBA7.1.1 浮点指令7.1.2 内部函数和标准函数7.1.3 原子操作指令7 7 调整指令级原语调整指令级原语7.2 程序优化指令7.2.1 单精度与双精度的比较7.2.2 标准函数与内部函数的比较7.2.3 了解原子指令7.2.4 综合范例098 GPU加速库和OpenACC8 GPU8 GPU加速库和加速库和OpenACCOpenACC8.2 cuSPARSE库8.4 cuFFT库8.6 CUDA 6.0中函数库的介绍8.1 CUDA库概述8.3 cuBLAS库8.5 cuRAND库8 GPU8 GPU加速库和加速库和OpenACCOpenACC8.7 CUDA函

13、数库的性能研究8.8 OpenACC的使用8.9 总结8.10 习题CABLOGOLOGOhttps:/8 GPU8 GPU加加速库和速库和OpenACCOpenACC8.1 CUDA库概述A8.1.1 CUDA库支持的作用域8.1.2 通用的CUDA库工作流8 GPU8 GPU加速库和加速库和OpenACCOpenACC8.2 cuSPARSE库01018.2.1 cuSPARSE数据存储格式02028.2.2 用cuSPARSE进行格式转换03038.2.3 cuSPARSE功能示例04048.2.4 cuSPARSE发展中的重要主题05058.2.5 cuSPARSE小结8.3 cuBL

14、AS库8 GPU8 GPU加速库和加速库和OpenACCOpenACC8.3.1 管理cuBLAS数据8.3.2 cuBLAS功能示例8.3.3 cuBLAS发展中的重要主题8.3.4 cuBLAS小结8 GPU8 GPU加速库和加速库和OpenACCOpenACC8.4 cuFFT库8.4.2 cuFFT功能示例1 13 32 28.4.1 使用cuFFT API8.4.3 cuFFT小结8.5 cuRAND库8 GPU8 GPU加速库和加速库和OpenACCOpenACC8.5.1 拟随机数或伪随机数的选择8.5.2 cuRAND库概述8.5.3 cuRAND介绍8.5.4 cuRAND发

15、展中的重要主题CAB8 GPU8 GPU加速库和加速库和OpenACCOpenACC8.6 CUDA 6.0中函数库的介绍8.6.1 Drop-In库8.6.2 多GPU库8.7 CUDA函数库的性能研究8 GPU8 GPU加速库和加速库和OpenACCOpenACC8.7.2 cuBLAS与MKL BLAS的比较8.7.4 CUDA库性能小结8.7.1 cuSPARSE与MKL的比较8.7.3 cuFFT与FFTW及MKL的比较8 GPU8 GPU加速库和加速库和OpenACCOpenACC8.8 OpenACC的使用8.8.1 OpenACC计算指令的使用01018.8.2 OpenACC

16、数据指令的使用02028.8.3 OpenACC运行时API03038.8.4 OpenACC和CUDA库的结合04048.8.5 OpenACC小结0505109 多GPU编程9 9 多多GPUGPU编程编程9.2 多GPU间细分计算9.4 多GPU上的有限差分9.6 总结9.1 从一个GPU到多GPU9.3 多GPU上的点对点通信9.5 跨GPU集群扩展应用程序9 9 多多GPUGPU编程编程9.7 习题9 9 多多GPUGPU编程编程9.1 从一个GPU到多GPUCBA9.1.1 在多GPU上执行9.1.2 点对点通信9.1.3 多GPU间的同步9 9 多多GPUGPU编程编程9.2 多

17、GPU间细分计算9.2.2 单主机线程分配工作1 13 32 29.2.1 在多设备上分配内存9.2.3 编译和执行9.3 多GPU上的点对点通信9 9 多多GPUGPU编程编程9.3.2 点对点的内存复制9.3.1 实现点对点访问9.3.3 统一虚拟寻址的点对点内存访问9 9 多多GPUGPU编程编程9.4 多GPU上的有限差分9.4.1 二维波动方程的模板计算01019.4.2 多GPU程序的典型模式02029.4.3 多GPU上的二维模板计算03039.4.4 重叠计算与通信04049.4.5 编译和执行05059 9 多多GPUGPU编程编程9.5 跨GPU集群扩展应用程序01019.

18、5.1 CPU到CPU的数据传输02029.5.2 使用传统MPI在GPU和GPU间传输数据03039.5.3 使用CUDA-aware MPI进行GPU到GPU的数据传输04049.5.4 使用CUDA-aware MPI进行节点内GPU到GPU的数据传输05059.5.5 调整消息块大小06069.5.6 使用GPUDirect RDMA技术进行GPU到GPU的数据传输1110 程序实现的注意事项10 10 程序实现的注意事项程序实现的注意事项10.2 配置文件驱动优化10.4 将C程序移植到CUDA C的案例研究10.6 习题10.1 CUDA C的开发过程10.3 CUDA调试10.5

19、 总结LOGOLOGOhttps:/10 10 程序程序实现的注实现的注意事项意事项10.1 CUDA C的开发过程010110.1.1 APOD开发周期020210.1.2 优化因素0 03 310.1.3 CUDA代码编译0 04 410.1.4 CUDA错误处理10 10 程序实现的注意事项程序实现的注意事项10.2 配置文件驱动优化CBA10.2.1 使用nvprof寻找优化因素10.2.2 使用nvvp指导优化10.2.3 NVIDIA工具扩展10 10 程序实现的注意程序实现的注意事项事项10.3 CUDA调试10.3.1 10.3.1 内内核调试核调试10.3.2 10.3.2 内内存调试存调试10.3.3 10.3.3 调调试小结试小结10 10 程序实现的注意程序实现的注意事项事项10.4 将C程序移植到CUDA C的案例研究10.4.1 评估crypt0 01 110.4.2 并行crypt0 02 210.4.4 部署crypt0 04 410.4.3 优化crypt0 03 310.4.5 移植crypt小结0 05 512附录 推荐阅读附录 推荐阅读感谢聆听

侵权处理QQ:3464097650--上传资料QQ:3464097650

【声明】本站为“文档C2C交易模式”,即用户上传的文档直接卖给(下载)用户,本站只是网络空间服务平台,本站所有原创文档下载所得归上传人所有,如您发现上传作品侵犯了您的版权,请立刻联系我们并提供证据,我们将在3个工作日内予以改正。


163文库-Www.163Wenku.Com |网站地图|