ue5吧 关注:3,997贴子:7,167
  • 1回复贴,共1

腾讯使用UE虚幻引擎

只看楼主收藏回复

腾讯的超级QQ秀这个QQ秀的升级版本就要来了。随着技术的升级,全新的超级QQ秀真是美轮美奂直接美炸翻,可以说,腾讯已经全面开启了00后甚至2010后们的钱袋子了。
在欣赏这个全新生物的同时,我们一起来对超级QQ秀背后的图形学技术有个基本的了解吧。
整个超级QQ秀包含了至少2套引擎;
第一套引擎是本地的unreal 引擎,主要负责角色个性化定制和小游戏;
其中角色个性化定制使用的是PBR全效果,通过diffuse颜色贴图、法线贴图、metalness贴图、roughness贴图、ao贴图等贴图通道实现了各种部件(皮肤、头发、皮革、棉麻)较为准确的质地还原;不同小游戏则对图形能力进行了取舍以保障游戏的实时性能;个性化定制界面使用了完整图形能力
换装部分主要是同一骨架下的局部模型替换或者贴图替换,貌似没有用到模型diffuse贴图通道的颜色叠加功能以实现饰品的染色效果;内置小游戏阉割了大量图形能力
在内置游戏中,除采用了较低多边形数量的LOD模型,PBR的法线贴图、AO贴图、Metalness贴图三个贴图通道强制关闭以保障游戏过程中的运行性能;甚至部分小游戏场景直接关闭了灯光;
脸部的blend shape除了支持表情动画之外,还支持通过blend shape实现五官的局部调整,包括眼睛和嘴巴的大小,位置等等;大概率也将支持用户端的手机摄像头实时面部表情捕捉;基于blend shape 的五官局部调整
在面部自定义调节过程中,对特定顶点组(Vertix Group)应用instance或者shader实现了当前调节区域的标注;基于已录制blend shape数据和身体骨骼动画的3D Avatar动作回放
内置物理引擎实现了头发的柔体模拟,估计是为了顾及到性能,未实现头发的刚体碰撞模拟;
所以很明显可以看到头发与角色的身体发生穿模;第二套引擎是云端的unreal 引擎,也就是虚幻的metahuman类似的技术,基于用户上传的个性化Avatar配置数据,在云端进行mmd动画的渲染,从而实现更华丽精致的演出效果,包括只有在高配电脑上才能实现的大规模粒子动画和光线追踪等高级特效;但奇怪的是,云端渲染,也没有去解决头发与身体穿模的问题。
云端引擎用来生产小视频,头发穿模依然存在
总体来说,腾讯这次推出的超级QQ秀算是对成熟图形技术的一次成熟应用,制作非常用心,当然腾讯作为全球最大的两个游戏引擎——Unreal引擎和Unity引擎的母公司,做到这个程度也着实应该。与QQ秀除了技术不同源这个最大的不同,在未来的商业化上也有了更高的想象空间:
1、超级QQ秀直接作为玩家的角色进入到“吃鸡”、“QQ炫舞”这样的世界观不存在冲突的中大型游戏;——真.元宇宙
2、挂钩线上商城,推出服装、饰品的实体版本同步销售,线上赚一次,线下再赚一次,明星同款还可以限量爆款;——真.QQ秀
无论哪一种可能,对于腾讯来说,做这个事情都比web3上纯靠编故事的那群人要靠谱,也有想象空间得多。
作者:3DPunk 网页链接 出处:bilibili


来自iPhone客户端1楼2022-02-10 17:43回复
    各位可以做个了解


    来自iPhone客户端2楼2022-02-11 14:08
    回复