将Arcore GPU纹理传递给MediaPipe
我正在研究一个应用程序,该应用程序可以检测具有检测+跟踪器模型(MediaPipe)的对象,并在检测到的对象(ARCORE和SECESFORM)上设置锚点。
当前实现:
- 获取
图像
来自Arcoreframe
inscene.onupdatelistener.onupdate
方法 - 转换为rgb bitmap
- 复制image buffer to byte阵列,并使用renderscript Pass 它通过
frameprocessor.onnewframe(bitmap,timestamp)
到MediaPipe图表
是否有任何方法避免将图像复制和转换为位图并将Arcore GPU GPU纹理直接传递给MediaPipe图?
I’m working on an application that detects objects with detection+tracker model (mediapipe) and sets anchors on detected objects (ARCore and Sceneform).
Current implementation:
- Acquire
Image
from ARCoreFrame
inScene.OnUpdateListener.onUpdate
method - Copy image buffer to byte array and convert to RGB Bitmap using RenderScript
- Pass it to Mediapipe graph through
FrameProcessor.onNewFrame(bitmap, timestamp)
Is there any way to avoid copying and converting image to bitmap and pass ARCore GPU texture to Mediapipe graph directly?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论