开发者利用iPhone X和Xsens惯性动捕技术实现全身动捕

VR/AR
2018
08/10
15:47
yivian
分享
评论

iPhone X及其原深感摄像头和面部识别软件面世尚不足一年时间,而自这台手机上市以来,第三方应用开发商和创作者就开始在探索原深感摄像头的可能性。

如果你好奇iPhone X能否用于动捕,你可以体验一下由洛杉矶VR工作室Kite & Lightning联合创始人科里·斯特拉斯堡(Cory Strassburger)首创的一种技术。利用iPhone X和Xsens惯性动捕技术,科里证明了你可以实现全身动捕,包括面部表情,其中最终动画角色可通过IKINEMA LiveAction进行直播。这一切都能在实时进行,正如视频所示。

这种方法依赖于DIY动捕头盔,以一台iPhone X对准用户的面部,通过Xsens MVN系统和IKINEMA LiveAction来直播,并在Unreal中重新校准动作。通过这种设置,用户可以随时随地地开演。另外,科里将在今年的Siggraph大会演示这项技术。

QQ截图20180720161401.jpg

如果你对面部捕捉感兴趣,你可以尝试一下Live Face。由Realallusion于6月发行的免费应用直接将面部追踪数据实时馈送给Mac或PC,将你的iPhone X作为热点,连接到计算机并通过Wi-Fi追踪脸上的数据点。

需要注意的是,终端数据是由Reallusion的CrazyTalk Animator 3套件接收和处理。目前Live Face仅兼容这款软件,意味着你需要首先在App Store上花费89.99美元的价格来购买CrazyTalk Animator 3套件。

另一个面部捕捉的选择是Maxon的CV-AR。这款免费应用同样在6月发行,软件捕获你的面部动画并将其发送到C4D,包括纹理和声音,而数据则存储在本地应用程序。

CV-AR

这款应用程序旨在令面部动画的捕获和传输尽可能无缝和轻松。你只需扫描二维码即可进行传输,没有热点或USB选项。

一个更低调的版本是来自独立开发者Niels Jansson的Face Cap。这非常有趣,因为它的输出不仅可以用于C4D,还可以用于Lightwave 3D,Autodesk Maya,Houdini和Blender。

借助Face Cap,你可以录制50种不同的面部表情,录制持续时间最长为10分钟。它将通用网格,混合形状和动画导出为Ascii-fbx,并提供本机IOS共享界面,这样你就可以通过电子邮件发送内容。

来源:yivian

THE END
广告、内容合作请点击这里 寻求合作
VR
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表砍柴网的观点和立场。

相关热点

英国教育大臣达米安·海因兹正在呼吁学校采用虚拟现实技术来启发学生,同时减轻教师的工作量。
VR
在过去几年里,Unreal引擎开发社区已经将VR和AR推向了一个新高度。Unreal表示,全球热情的和熟练的开发者正在开发和发行高品质的VR和AR体验,而他们很高兴能继续支持其所看到的创造力。
VR
从今年秋季开始,名为“Game 180N The Art and Science of Virtual Worlds”的新课程将向宾夕法尼亚州立大学思古吉尔河校区和利哈依河谷校区的大一新生开放。这门课程将专注于虚拟世界的物理与基础,虚拟...
VR
谷歌今天为我们带来了大量的更新,包括新版本Photos(谷歌相册)。对大多数用户而言,本次更新可能没有太大不同。但根据对代码的分析,Photos正在准备迎来VR编辑功能。
VR
在期望管理方面,我(Bryan Crow)在早上刚下订单,Magic Leap下午四点就把产品送到了我的手上。经过一个小时的设置,以及对其UI和首发日应用程序的体验后,作为一位在过去数年间曾花费大量时间探索HoloLens...
VR

相关推荐

1
3