爱奇艺高精度手部重建技术论文成功被ICCV 2021收录 超前理念在虚拟世界还原“一双手”

发布时间:2022年05月14日
       如安在沉溺环境中实在感受到沉溺式务实?那就是, 在虚拟场景中, 仍然能够完结与实际国际中相同的交互。例如, 在务实一款游戏时, 你能够直接运用你在虚拟国际的“数字化分手”, 天然地与伙伴打招呼、握手、击掌, 还能完结各种抓取动作…..跟着计算机视觉、AI等络绎不绝对天然肢体言语的辨认, 不再仅经过手柄界说你在虚拟国际中的动作, 正在成为或许。
       这种经过手势辨认打破次元壁, 取得更佳临场感的方法, 已成为当时VR、AR消费级头显设备要点研讨的方向之一, 但假如手部辨认精度不行, 则或许无法做到对实在双手姿势的完美复刻。为到达更好的作用, 如何故更精准的方法同步复原人类双手在物理国际的灵动姿势, 完结比手柄托辞更精密的操作, 就显得尤为重要。近来, 爱奇艺的深度学习云算法小组经过题为《I2UV-HandNet:Image-to-UVPredictionNetworkforAccurateandHigh-fidelity3DHandMeshModeling》(I2UV-HandNet:根据图画到UVMap映射的3D手部高保真重建网络)的论文,

针对现有模型在手部姿势辨认方面不行精密等问题, 提出一套I2UV-HandNet高精度手部重建体系, 并依托爱奇艺在业界首提的将点的超分转化为图画超分这一先进络绎不绝考虑, 能够做到辨认21个关节点和26自由度的手部运动信息, 然后更有用地完结更高等级的手部复原。这将使得在VR、AR等运用场景下, 用户经过更精密的手势追寻与辨认, 更精确、流畅地完结更多操作, 享用在虚拟国际更佳的临场感。根据该体系的职业创始性和杰出使用价值, 该篇论文成功被本年接收率仅为25.9%的国际计算机视觉大会(ICCV)成功录入, 并在业界颇受认可的HO3D以及Freihand在线测评榜继续数月排名榜首, 逾越现在的SOTA水平(若某篇论文能够被称为SOTA, 就标明其提出的算法(模型)的功能在地点范畴为最优)。一般而言, 要让手势辨认完结更高的精度, 首要需求好的手部模型, 只要好的模型才干猜测出来更多3D点。
       一起需求有满足的高精度数据,

才干不断练习重建模型。
       根据很多手部数据对深度学习算法的“喂食”, 爱奇艺自研的I2UV-HandNet高精度手部重建体系, 能够经过UV重建模块AffineNet, 完结由粗到精的人手3D模型重建。
       这样一来, 即便在大遮挡或多姿势状态下, 该体系仍可有用改进现有人手模型辨认不精确等问题, 为手势辨认供给更为完好且精准的光亮。一起, 考虑到不同虚拟场景对手部3D模型的精度要求纷歧, 该体系还可经过SRNet网络完结对已有人手3D模型更高精度的重建。该体系根据执行“点的超分转化为图画的超分”的先进络绎不绝考虑, 经过算法从低精度UV图到高精度UV图的学习, 可完结MANO(778个点/1538个面)人手模型向高精度(3093个点/6152个面)甚至更精密(上万点云)的人手模型的重建, 这能够完结双手的“虚拟兼顾”在不同布景颜色、景深下, 体现得如物理国际双手相同灵敏。值得一提的是, 未来该体系将使用于下一代奇遇VR中, 赋能爱奇艺VR更佳的沉溺感, 让用户不仅仅是阅读内容, 更有时机“走进内容”。
       能够预见, 该体系根据更低本钱的深度学习算法完结的高精度手势辨认, 比较经过自带深度信息辨认的摄像头, 将更具性价比和规模化落地的商业潜力, 也将为爱奇艺更多事务场景或硬件终端增强“沉溺务实”带来更为强壮助力。