国信证券:字节全新发布豆包AI视频模型 AI多模态有望迎来爆发期

昨天 979阅读 0评论

智通财经APP获悉,国信证券发布研报称,9月24日,字节跳动旗下火山引擎在深圳举办AI创新巡展,一举发布了两款大模型, 面向企业市场开启邀测。新的模型在语义理解能力、多个主体运动的复杂交互画面、多镜头切换的内容一致性方面均有着非常大的突破, 大幅度改善过去ai视频不够连贯真实的问题。此前,豆包大模型公布低于行业99%的定价,引领国内大模型开启降价潮。火山引擎总裁谭待认为,大模型价格已不再是阻碍创新的门槛,随着企业大规模应用,大模型支持更大的并发流量正在成为行业发展的关键因素。

豆包AI视频模型全新发布

9月24日, 字节跳动旗下火山引擎在深圳举办AI创新巡展, 一举发布了豆包视频生成-PixelDance、 豆包视频生成-Seaweed两款大模型, 面向企业市场开启邀测。

新的模型在语义理解能力、 多个主体运动的复杂交互画面、 多镜头切换的内容一致性方面均有着非常大的突破, 大幅度改善过去ai视频不够连贯真实的问题。 火山引擎总裁谭待表示, "视频生成有很多难关亟待突破。 豆包两款模型会持续演进, 在解决关键问题上探索更多可能性, 加速拓展AI视频的创作空间和应用落地。 "

三大全新特点 —— 可以做连续动作的人物表演

可以做连续动作的人物表演: 解决过去AI视频人无法做复杂动作的难点

过往, AI视频由于连贯性难点一直无法解决, 看起来更像PPT动画。 不管是Sora、 runway等头部厂商, 在展示中只具有镜头幅度大的能力, 无法展示人的复杂动作。本次豆包全新模型在AI生成人物表演视频方便迎来大幅度提升。

多镜头组合视频: 一张图+Prompt即可生成单视频多镜头

据火山引擎介绍, 豆包视频生成模型基于DiT架构, 通过高效的DiT融合计算单元, 让视频在大动态与运镜中自由切换, 拥有变焦、 环绕、 平摇、 缩放、 目标跟随等多镜头语言能力。 全新设计的扩散模型训练方法更是攻克了多镜头切换的一致性难题, 在镜头切换时可同时保持主体、 风格、 氛围的一致性。

极致的运镜控制: 可以实现前后景变焦、 摇摄、 目标跟随、 升降镜头等各种复杂的运镜能力

当前AI视频在运镜控制方面, 基本集中在摄像机+运动笔刷两个功能上, 在大运镜和变焦能力有限。

本次豆包PixelDance的发布, 成功实现了各种360度围绕主体环绕、 前后景变焦、 摇摄、 目标跟随、 升降镜头等各种复杂的运镜能力, AI视频在运镜控制方面迎来重大提升。

用户使用量快速增长, 产品能力日益完善

在产品能力日益完善的同时, 豆包大模型的使用量也在极速增长。据火山引擎披露, 截至9月, 豆包语言模型的日均tokens使用量超过1.3万亿, 相比5月首次发布时猛增十倍。多模态数据处理量也分别达到每天5000万张图片和85万小时语音。

此前, 豆包大模型公布低于行业99%的定价, 引领国内大模型开启降价潮。 火山引擎总裁谭待认为, 大模型价格已不再是阻碍创新的门槛, 随着企业大规模应用, 大模型支持更大的并发流量正在成为行业发展的关键因素。

据火山引擎总裁谭待介绍, 业内多家大模型目前最高仅支持300K甚至100K的TPM(每分钟token数), 难以承载企业生产环境流量。 例如某科研机构的文献翻译场景, TPM峰值为360K, 某汽车智能座舱的TPM峰值为420K, 某AI教育公司的TPM峰值更是达到630K。 为此, 豆包大模型默认支持800K的初始TPM, 远超行业平均水平, 客户还可根据需求灵活扩容

风险提示

研发不及预期;市场需求不及预期

发表评论

快捷回复: 表情:
评论列表 (暂无评论,979人围观)

还没有评论,来说两句吧...

目录[+]