科技食谱

用一张2D照片制作3D模型的AI?

为了将对象的草图和照片转换为逼真的3D模型并将其输出到3D打印机,使其在电视游戏中移动或使用视觉效果使视频栩栩如生,您需要具有数字建模技能的人才来处理大量图像。做。

但是,Nvidia已经训练了神经网络,可以从单张照片创建完美纹理的3D模型。当然,以前有一种类似的技术可以自动生成3D模型。但是,为了获得准确的结果,需要从不同角度拍摄许多照片,并且人类需要输入数字以了解软件图像的特定对象大小和形状。

您可以通过任何方式解决问题,但是欢迎您能够更简单地进行3D建模。即使没有高级技能,它也可以被广泛的用户使用。

在NVIDIA研究团队在加拿大不列颠哥伦比亚省举行的年度神经信息处理系统会议上发表的新论文(《学习使用基于插值的渲染器预测3D对象》)中,新的图形工具DIB-R(基于差分插值的渲染器)发达。详细说明。

该团队训练了具有多个数据集的DIB-R神经网络。其中包括先前转换为3D模型的照片,从不同角度呈现的3D模型以及从不同角度聚焦于特定主题的照片集。例如,神经网络需要大约两天的时间来训练如何将特定对象(例如鸟类)从2D转换为3D。但是,据说一旦完成,就可以基于到目前为止尚未分析的2D照片在100毫秒内批量生产3D模型。

这种惊人的处理速度使该工具更加有趣。这是因为有可能极大地提高识别机器人或自动驾驶汽车之类的物体并在3D中进行理解的方法。例如,将自动驾驶汽车用摄像机拍摄的图像创建的静止图像直接转换为3D模型,以准确测量从现在起需要解决的大型卡车的尺寸以及机器人如何适当选择根据计划形状的任意对象。变得可预测。

DIB-R还可以通过即时生成的3D模型来提高识别和跟踪人员的监视摄像机的性能,以便于在整个场景中移动人员的图像数据。相关信息可以在这里找到。