随着游戏赋予玩家探索复杂数字世界的自由,CG角色也自然移动并且与那里的所有元素进行交互变得越来越困难。最大的问题是预编程动作和动作之间的不自然。
为了避免这种尴尬,研究团队正在尝试使用AI和深度学习来移动逼真的游戏角色,就像真实的人类一样。为了尽可能真实地表达诸如步行,奔跑和跳跃之类的动作,游戏开发人员必须捕捉真实的人类动作并将其反映在数字角色上。但是,根据研究团队的说法,这比手动设置角色动画要快,而且看起来更好,但是不可能通过拍摄动作来适应角色与数字世界互动的所有方式。
游戏开发人员尝试计划尽可能多的可能性。但是最后,您别无选择,只能依靠软件。由于角色的连续动作可能会显得夸张或不自然,因此会损害玩家的游戏体验。
爱丁堡大学和Adobe Research研究人员找到了解决这一问题的新方法。它将在12月在澳大利亚布里斯班举行的ACM SIGGRAPH会议上宣布,它将通过深度学习使用神经网络功能来解决游戏当前具有的动画尴尬。
这就像制作Deepfake视频。当创建一幅深造的图像时,神经网络首先使用从各个角度拍摄的数以万计的面部图像的数据库来学习所有可想象的面部表情。此过程需要时间,但可以自动创建逼真的面部替换。
这项研究使用了类似的方法,但不是从面部数据库训练神经网络,而是使用从舞台上的演员捕获的一系列数字化动作进行学习。为了获得最佳结果,您需要一个广泛的动作演员数据库,包括演员拾取,爬到某个地方,坐在椅子上等的动作。完成此操作后,神经网络可以适应所学的知识,以适应几乎任何情况和环境,同时生成自然的外表和动作。因此,角色朝椅子走去并缓慢旋转身体或坐着的动作之间没有尴尬。这是因为它智能地连接了这些动作和动画。
对这项技术进行动作捕捉的补充可以帮助减小文件大小以及需要处理和共享的数据量。该技术可以帮助游戏角色进行复杂的交互。相关信息可以在这里找到。
Add comment