不知道大家有没有记得哆啦A梦有个道具”立体日光相机(实物立体日光写真)”,只要按下快门,
就可以从印出的照片中倒出一个被拍摄物的等身大3D复印来,
”立体日光相机”虽然还未被发明,随着科技发展,”将拍摄的照片转为3D”的技术却确实登场了─
从iThome看到的报导,Nvidia日前发表了新的深度学习引擎”GANverse3D”,
该应用程序不但只需单张2D图像就可创建出相对应的3D模型,
其所产生的模型更不仅仅只是一块形状而已,甚至还包括了基本的对象分割!
(以下内容引述自iThome)
…..Nvidia开发了一种新的深度学习引擎GANverse3D,可以将标准的2D图像,转换成3D物体模型,
并且作为虚拟协作模拟平台Nvidia Omniverse的扩充套件使用,将3D模型渲染成光影逼真的样子…..
…..Nvidia人工智能实验室所开发的GANverse3D应用程序,能将平面的图像转成逼真的3D模型,
并在虚拟环境进行可视化与操作控制,官方提到,这项功能可以让建筑师、创作者、
游戏开发者和设计师,在不需具备3D建模的专业知识下,简单地将对象加到3D场景中。
像是使用单张汽车照片,就可以创建出3D模型,该模型可以在虚拟场景中行驶,
并且配备逼真的前灯、尾灯和方向灯等配备…..
…..在开发GANverse3D的过程,由于缺乏训练数据,
于是研究人员便将生成对抗网络(GAN)转变成为高效能的数据产生器,用来生成同一物体,
但是由不同方向观看的图片,这些图片就像是摄影师绕着车辆,从不同角度拍摄的一样…..
…..这些多重视角的图片,被插入到反转图像(Inverse Graphics)用的渲染框架中,
在经过这些图片训练后,GANverse3D只需要单张2D图像就可快速创建出3D模型,
这些模型可以被用于3D神经渲染器上,供开发人员控制自定义对象和变换背景…..
…..
只是该工具的输出到底是奠基于多重的材料训练,文中提到的车子、马或建筑可能还好,
若使用者提供的是根本不可能存在多重角度的素材,例如立ち絵或自行绘制的2D人物图样,
GANverse3D或许就很难依此产生出(符合想象的)3D美少女人物模型呢?
嗯,即便能节省建模时间已是一大福音,想要打破二次元与三次元之间的藩篱…..只怕仍是力有未逮哪 XD