CPU发控制,然后GPU处理完产生中断通知CPU?
回复 4# cjaizss
我记错了...浮点只在出错时才产生异常. 运算指令是同步运行的.处理器挂起在运算的指令上. 当然CPU内部乱序还是可以执行的.
协处理基本都大致如此
我记得浮点协处理器好象也类似.不过有点不明确.1,控制GPU的指令是否会挂起在写操作上2,写入指令完成.这个指令是否会暂存在GPU上,比如上一个GPU代码块还没有处理完成.3,对于内存或显存由CPU控制的时候, 如果是某个GPU功能多次访问那么CPU通过什么方式同步或阻塞在自己的代码上, 和GPU的同步执行的阻塞方式一样?如果利用切换,睡眠,或者自旋?来等待CPU解锁?
1,2的情形比较类似中断控制器的并发式工作, 3有点类似多处理器中面临的同步问题.
是的,参加CUDA,CUDA现在的性能瓶颈是内存拷贝。
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
暂无简介
文章 0 评论 0
接受
发布评论
评论(4)
回复 4# cjaizss
我记错了...
浮点只在出错时才产生异常. 运算指令是同步运行的.
处理器挂起在运算的指令上. 当然CPU内部乱序还是可以执行的.
协处理基本都大致如此
我记得浮点协处理器好象也类似.
不过有点不明确.
1,控制GPU的指令是否会挂起在写操作上
2,写入指令完成.这个指令是否会暂存在GPU上,比如上一个GPU代码块还没有处理完成.
3,对于内存或显存由CPU控制的时候, 如果是某个GPU功能多次访问那么CPU通过什么方式同步或阻塞在自己的代码上, 和GPU的同步执行的阻塞方式一样?如果利用切换,睡眠,或者自旋?来等待CPU解锁?
1,2的情形比较类似中断控制器的并发式工作, 3有点类似多处理器中面临的同步问题.
是的,参加CUDA,CUDA现在的性能瓶颈是内存拷贝。