查看原文
其他

这是Epic给MetaHuman准备的衣服!?

CG世界 2022-05-24

点击上方蓝字CG世界关注我们

“ 感知技术 · 感触CG · 感受艺术 · 感悟心灵 ”
中国很有影响力影视特效CG动画领域自媒体


大家都知道Epic前些日子发布了一个震动行业的实时“捏人”工具MetaHuman,因为其高效的创建人物角色模型,还有写实的渲染,一度成为行业讨论的焦点,也更成为行业小伙伴们业余时间把玩的“玩具”。但有个问题,就是角色创建好了,那衣服怎么办呢?有人物就得穿衣服啊。这不,Epic金主不知道什么时候给triMirror资助了一波,一方面是支持,另一方面也是为Epic的MetaHuman提供实时服装的模拟。感觉Epic的投资已经触达CG制作的各个领域了,真的是有钱任性!


这个triMirror到底干嘛的呢?triMirror是一个新的实时布料模拟器,是第一个也是唯一一个真实的、实时虚拟试衣系统,它可以让消费者和设计师们能够在虚拟动态模型上精准的体验现实生活中的衣服,可以在线、桌面或移动平台上实现即时试衣可视化,也可以给UE4中的MetaHuman角色“穿衣”。



triMirror是2010年LennyCharny创办的,主要是解决用户在网购衣服时试穿衣服的难题。经过多年的研发,他们创造了世界上第一个实时布料模拟和多平台3D虚拟试衣解决方案。


它这个技术厉害之处就是能实时够看到衣服哪里是紧的或松的,哪里突出或下垂,还可以观察各种姿势走动或站立时衣服的运动,这样一来可以让网上购物体验提升到一个新的参与度和娱乐水平。



triMirror公司不仅提供实时运行的衣服模拟,还提供一个3D Draper软件,它可以用于制作新衣服和编辑行业内的标准文件格式,还可制作出交互式的褶皱和流动的布料。材质系统在100%运行状态时,可以通过UE的小工具进行编辑。将3D Draper与UE插件集成后可以更容易的创建和编辑布料,因为整个系统是为快速布料原型设计的。




1.和普通的UE4布料模拟有什么不同之处

这个系统的布料模拟和普通的UE4布料模拟的主要区别在于布料如何与角色本身的网格交互。他们这个技术不用任何人工约束,也不适用凸函数近似。相反,这里使用的是网格到网格的碰撞,虚拟人像和布料之间的距离控制在亚毫米(介于1~0.1毫米之间)的范围内。而且还支持布料和虚拟人像之间的自然摩擦,这样人像穿上的衣服会更自然,而不会任意滑动脱落(例如裤子和裙子)。此外在布料的处理中,在一定程度上可以减少布料的弹性,避免看起来像橡胶的效果。
 
除了这些,还支持一些先进的功能,如折叠、拉链等。
 
对于UE渲染的视觉属性,这里将每个服装图案的物理属性和渲染属性结合起来,并在单个框架中提供给用户。例如不使用UE材质模型,而是使用triMirror系统进行更自然的物理和视觉模拟。
 



2.关于实时

 
triMirror系统虽然是实时的,但使用的不是机器学习,也没有机器学习算法,它是建立在弹簧质点模拟上的。只要满足条件,也适用于基于MoCap(XSens风格)输入的实时布料模拟,这个输入可以在现场解决和使用。还测试过由Xsen驱动的实时动画角色,或者只使用他们的动捕数据。




3.碰撞效果的处理

 

triMirror系统对于衣服的碰撞效果有一个混合的物理和视觉解决方案,如织物厚度,偏差和偏移,这些都有助于实现一个相当完美的服装细节视觉外观。对于虚拟人像到布料的碰撞以及一些自我碰撞,或者一些布料的复杂性,比如多层交叉等还是需要改进。

 



4.硬件需求

 

普通的就使用一个GPU,比如GTX770或更高一点就行。但是如果更复杂的场景,例如梳理头发,体积云等就得需要更多的GPU来计算了。举个例子吧,比如我们要出MetaHuman视频,使用一个单独的GTX1660进行布料模拟,最多可显示三件衣服。如果你用RTX3090那就可以进行头发梳理,但是加上体积云速度就下来了。现在团队正在研究一个基于UE的SaaS云解决方案。

 


现在triMirror团队正努力能够让动画制作人员在UE环境中使用3D Draper软件模拟出更真实更精准的衣服。看这个演示效果还蛮不错的,没有亲自上手测试不知道用在项目中效果如何,但看这架势,以后会和MetaHuman结合的很紧密,毕竟有了角色必须要有衣服模拟系统来支持啊。



—全文完—



国人自研!超实用流程管理软件~


有内味了!UE渲染小短片一个


就是往UE4砸模型,哎?大神就是玩!!


都起开,不要妨碍我捏女友!3款强大的人物角色创建工具


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存