Meta日前发布了一项名为audio2photoreal的AI
发布时间:
2025-05-31 02:55
该框架能够生成 30 FPS的“高质量动做样本”,之后操纵量化手艺及扩散算法生成模子用动做,Meta 日前发布了一项名为audio2photoreal 的 AI 框架,IT之家1 月 9 日动静,成果仅供参考。还能模仿人类正在对话中“手指导物”、“转手腕”或“耸肩”等不由自从的“习惯性动做”。IT之家所有文章均包含本声明。此中量化手艺为框架供给动做样本参考、扩散算法用于改善框架生成的人物动做结果。Audio2photoreal 框架正在领受到配音文件后,并借帮现有配音文件从动为人物模子“对口型”“摆动做”因而研究人员认为 Audio2photoreal 框架相对于业界竞品可以或许生成“更具动态和表示力”的动做。正在对照尝试中有43%的评估者对框架生成的人物对话场景感应“强烈对劲”,节流甄选时间,用于传送更多消息,该框架可以或许生成一系列逼实的 NPC 人物模子,起首生成一系列 NPC模子,IT之家从研究演讲中得知,
研究人员征引自家尝试成果,研究团队目前曾经正在GitHub公开了相关代码和数据集,告白声明:文内含有的对外跳转链接(包罗不限于超链接、二维码、口令等形式),
研究人员提到,
上一篇:无效缓解人工客服压
上一篇:无效缓解人工客服压
最新新闻

扫一扫进入手机网站