我可以在主机进程之间共享 cuda GPU 设备内存吗?
是否可以有两个或多个 Linux 主机进程可以访问相同的设备内存? 我有两个进程在它们之间传输高数据速率,我不想将数据从 GPU 传回进程 A 中的主机,只是将其传递给进程 B,进程 B 将 memcpy h2d 返回到 GPU。
将多个进程合并为单个进程不是一种选择。
Is it possible to have two or more linux host processes that can access the same device memory?
I have two processes streaming high data rate between them and I don't want to bring the data back out of the GPU to the host in process A just to pass it to process B who will memcpy h2d back into the GPU.
Combining the multiple processes into a single process is not an option.
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
我对 CUDA API 的理解是这是不可能的。设备指针与给定的 CUDA 上下文相关,并且无法在进程之间共享这些指针。
My understanding of the CUDA APIs is that this cannot be done. The device pointers are relative to a given CUDA context, and there's no way to share those between processes.