OpenNni:颜色坐标到深度坐标

发布于 2025-01-08 04:02:58 字数 152 浏览 0 评论 0原文

我想知道如何转换从 全分辨率彩色图像到深度流中的坐标。

例如,我从全分辨率颜色中得到了(763,234),我想知道什么 (x,y,z) 是来自深度图像吗? (顺便说一句,我在 java 中执行此操作,但 c++ 中的答案可能很容易 可翻译)

提前谢谢

I was wondering how can I convert a coordinate that i acquired from a
full res color image to coordinates in the depth stream.

E.g, i got (763,234) from the full res color and i want to know what
is the (x,y,z) from the depth image ?
(btw i'm doing this in java, but an answer in c++ is probably easily
translatable)

Thx in advance

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

半步萧音过轻尘 2025-01-15 04:02:58

如果您的输入设备允许,您只需使用“GetAlternativeViewPointCap”即可,如以下 C++ 代码所示。在这种情况下,深度图会自动转换,以便与彩色图像对齐。因此,给定彩色图像上像素的坐标(x,y),查询同一位置的深度图就足够了。

m_context.InitFromXmlFile(path,m_scriptNode);                               
m_context.FindExistingNode(XN_NODE_TYPE_IMAGE, m_imageGenerator);                       
m_context.FindExistingNode(XN_NODE_TYPE_DEPTH, m_depthGenerator);                       
if (m_depthGenerator.IsCapabilitySupported(XN_CAPABILITY_ALTERNATIVE_VIEW_POINT)) {
    m_depthGenerator.GetAlternativeViewPointCap().SetViewPoint(m_imageGenerator);
}

如果这种方法不可行,您应该估计两个相机之间的转换。像《计算机视觉中的多视图几何》这样的书描述了所有必要的背景和算法。

If your input device allows it, you can simply use "GetAlternativeViewPointCap", as shown in the following C++ code. In this case, the depth map is automatically transformed so to become aligned with the color image. Therefore, given a coordinate (x,y) of a pixel on the color image, it becomes sufficient to query the depth map at the same position.

m_context.InitFromXmlFile(path,m_scriptNode);                               
m_context.FindExistingNode(XN_NODE_TYPE_IMAGE, m_imageGenerator);                       
m_context.FindExistingNode(XN_NODE_TYPE_DEPTH, m_depthGenerator);                       
if (m_depthGenerator.IsCapabilitySupported(XN_CAPABILITY_ALTERNATIVE_VIEW_POINT)) {
    m_depthGenerator.GetAlternativeViewPointCap().SetViewPoint(m_imageGenerator);
}

If this approach is not viable, you should estimate the transformation between the two cameras. A book such as "Multiple View Geometry in Computer Vision" describes all the necessary background and algorithms.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文