您的位置:首页 > 运维架构 > 网站架构

GPU架构基础 之 关于CUDA中线程访存的关系

2015-11-16 20:25 429 查看
device端,即GPU:

读写----------- 访问单位 -----存储

R/W                 per-thread       register

R/W                per-thread        local memory

R/W                 per-block          shared memory

R/W                per-grid             global memory

Read Only     per-grid             constant memory

host端,即CPU:

R/W     per-grid            global and constant memory

register 是每个线程私有的,每个线程只能从寄存器和shared mem 中直接读取数据。

在费米架构中,线程之间通信要靠shared mem,而在 kepler 架构中,shuffle指令可以使

每个warp中的不同线程共享寄存器。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  cuda