当前位置:   article > 正文

【面经笔记】cuda、gpu概念_gpu存储 面经

gpu存储 面经
  1. 与CUDA相关的几个概念:thread,block,grid,warp,sp,sm。
    sp: 小核(流处理器)最基本的处理单元,streaming processor 最后具体的指令和任务都是在sp上处理的。GPU进行并行计算,也就是很多个sp同时做处理
    sm: 大核(流多处理器)多个sp加上其他的一些资源组成一个sm, streaming multiprocessor. 其他资源也就是存储资源,共享内存,寄储器等。
    Warp:(线程束)GPU执行程序时的调度单位,一起执行。目前cuda的warp的大小为32,同在一个warp的线程,以不同数据资源执行相同的指令。
    grid、block、thread:在利用cuda进行编程时,一个grid分为多个block,而一个block分为多个thread.其中任务划分到是否影响最后的执行效果。划分的依据是任务特性和。
  2. 利用图形API 和CUDA进行GPU通用计算的性能区别?
    利用图形API需要把问题转化为图形学的变化;而CUDA是C语言的扩展,比较适合做通用计算
  3. GPU的指令和CPU指令的最大区别?
    CPU需要运行OS,不但要处理中断,还要负责存储器空间分配与回收,CPU指令有很多都是操作特权寄存器;GPU目前还做不到这一点
  4. 你怎么样知道是否达到了GPU的理论加速倍数?怎么计算?
    通过成千上万线程来隐藏访问延迟
  5. GPU架构的缺点?如果让你设计,你会怎么改进?
    a.精度问题,b.编程模式不太灵活
  6. GPU有通过成千上万
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/112788
推荐阅读
相关标签
  

闽ICP备14008679号