如何使用立体视觉对室内环境进行精确的 3D 重建?

发布于 2024-09-05 01:45:36 字数 124 浏览 8 评论 0原文

我在 openCV 中使用 cvStereoFindCorrespondenceGC() 从著名的 Tsukaba 图像生成视差图。但我注意到它缺乏 3D 功能(例如灯是平坦的而不是稍微弯曲的)。如何解决这个问题?目前的算法缺少什么?

I used cvStereoFindCorrespondenceGC() in openCV to produce a disparity map from the famous tsukaba image. But I notice that it lacks 3D features (eg the lamp is flat instead of slightly curve). How to approach this problem? What was lacking in the present algorithm?

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(2

我的黑色迷你裙 2024-09-12 01:45:36

视差图仅包含有限数量的深度信息(z 轴,例如指向屏幕)。

您需要查看 LIDAR 或类似的飞行时间方法才能提取/扫描/重建 3D 场景。

话虽如此,您可以尝试使用

“移动设备 3D 体积感知系统”的 Sentience 项目植根于立体匹配的机器人。

The disparity map only contains a limited amount of depth information (z axis, eg pointing into your screen).

You need to look at LIDAR, or similar Time Of Flight methods in order to extract/scan/reconstruct a 3d scene.

Having said that you can try the Sentience Project

That uses 'A 3D volumetric perception system for mobile robots' which is rooted in stereo matching.

跨年 2024-09-12 01:45:36

您可能还想尝试诸如“运动结构”方法之类的方法。
当您围绕物体移动时,从不同角度拍摄许多照片,然后计算至少 3 张图像中出现的像素位置。这些可以产生非常好的模型,更接近激光雷达的等效模型。

例如 MS Photosynth(免费)或 AGISoft Photoscan(试用版,但无法保存/导出模型)

对于开源版本,请查看 Insight 3D http://insight3d.sourceforge.net/

You might also want to try something like the Structure from Motion approach.
You take many photos from different angles as you move around the object, then calculate the location of pixels which occur in at least 3 images. These can produce very good models, getting closer to the LiDAR equivalent.

e.g. MS Photosynth (free), or AGISoft Photoscan (working trial but you can't save/export models)

For an open source version check out Insight 3D http://insight3d.sourceforge.net/

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文