是否可以在多个 GPU 上运行 cuda 内核

发布于 2024-10-06 12:34:44 字数 226 浏览 1 评论 0原文

这是一个相当简单的问题,但谷歌搜索似乎没有答案,所以。

我想知道的是,如果我有两个能够运行 cuda 的 GPU 卡(相同),我的内核可以跨越这些卡吗?或者它绑定到一张卡或另一张卡?即 cuda 提供了整套可用的 GPU 核心,或者只是运行它的卡上的核心。

如果是这样,为了实现它,我需要了解什么特别的东西吗? 除了 cuda sdk 之外,还有什么值得了解的例子吗?

目标语言当然是C/C++。

This is a fairly simple question but googling doesn't seem to have the answer, so.

What I want to know is if I have two gpu cards (identical) capable of running cuda, can my kernel span these cards? Or is it bound to one card or the other? I.e. is cuda presented with the entire set of available gpu cores, or just the ones on the card it is run on.

If so, is there anything special I need to know about in order to make it happen and are there any examples over and above the cuda sdk worth knowing about?

Target language is of course C/C++.

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

栖迟 2024-10-13 12:34:44

单个 CUDA 内核启动绑定到单个 GPU。为了使用多个 GPU,需要启动多个内核。

cuda 设备运行时 API 专注于选择的设备。任何给定的内核启动都将在最近使用 选择的设备上启动cudaSetDevice()

cuda 示例中给出了多 GPU 编程示例 带有 P2P 的简单多 GPU简单多 GPU

A single CUDA kernel launch is bound to a single GPU. In order to use multiple GPUs, multiple kernel launches will be required.

The cuda device runtime API focuses on whichever device is selected. Any given kernel launch will be launched on whichever device was most recently selected using cudaSetDevice()

Examples of multi-GPU programming are given in the cuda samples simple multi-gpu with P2P and simple multi-gpu

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文