有没有更好更快的方法使用推力从CPU内存复制到GPU?

发布于 2025-01-07 08:55:10 字数 450 浏览 2 评论 0原文

最近我经常使用推力。我注意到,为了使用推力,必须始终将数据从 cpu 内存复制到 GPU 内存。
让我们看下面的示例:

int foo(int *foo)
{
     host_vector<int> m(foo, foo+ 100000);
     device_vector<int> s = m;
}

我不太确定 host_vector 构造函数是如何工作的,但似乎我正在复制来自 *foo 的初始数据两次- 一次在 host_vector 初始化时发送,另一次在 device_vector 初始化时发送。有没有更好的方法从 cpu 复制到 gpu 而无需制作中间数据副本?我知道我可以使用 device_ptr 作为包装器,但这仍然不能解决我的问题。
谢谢!

Recently I have been using thrust a lot. I have noticed that in order to use thrust, one must always copy the data from the cpu memory to the gpu memory.
Let's see the following example :

int foo(int *foo)
{
     host_vector<int> m(foo, foo+ 100000);
     device_vector<int> s = m;
}

I'm not quite sure how the host_vector constructor works, but it seems like I'm copying the initial data, coming from *foo, twice - once to the host_vector when it is initialized, and another time when device_vector is initialized. Is there a better way of copying from cpu to gpu without making an intermediate data copies? I know I can use device_ptras a wrapper, but that still doesn't fix my problem.
thanks!

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

忆伤 2025-01-14 08:55:10

device_vector 的构造函数之一采用由两个迭代器指定的一系列元素。它足够聪明,可以理解示例中的原始指针,因此您可以直接构造一个 device_vector 并避免临时 host_vector

void my_function_taking_host_ptr(int *raw_ptr, size_t n)
{
  // device_vector assumes raw_ptrs point to system memory
  thrust::device_vector<int> vec(raw_ptr, raw_ptr + n);

  ...
}

如果您的原始指针指向 CUDA 内存,请引入一个device_ptr

void my_function_taking_cuda_ptr(int *raw_ptr, size_t n)
{
  // wrap raw_ptr before passing to device_vector
  thrust::device_ptr<int> d_ptr(raw_ptr);

  thrust::device_vector<int> vec(d_ptr, d_ptr + n);

  ...
}

使用device_ptr不会分配任何存储空间;它只是对类型系统中指针的位置进行编码。

One of device_vector's constructors takes a range of elements specified by two iterators. It's smart enough to understand the raw pointer in your example, so you can construct a device_vector directly and avoid the temporary host_vector:

void my_function_taking_host_ptr(int *raw_ptr, size_t n)
{
  // device_vector assumes raw_ptrs point to system memory
  thrust::device_vector<int> vec(raw_ptr, raw_ptr + n);

  ...
}

If your raw pointer points to CUDA memory, introduce a device_ptr:

void my_function_taking_cuda_ptr(int *raw_ptr, size_t n)
{
  // wrap raw_ptr before passing to device_vector
  thrust::device_ptr<int> d_ptr(raw_ptr);

  thrust::device_vector<int> vec(d_ptr, d_ptr + n);

  ...
}

Using a device_ptr doesn't allocate any storage; it just encodes the location of the pointer in the type system.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文