日前在深圳举办的AI创新巡展上,字节跳动旗下火山引擎方面正式发布豆包视频生成-PixelDance、豆包视频生成-Seaweed两款模型,并面向企业市场开启邀测。据悉,这也意味着字节跳动正式进军AI视频生成领域。
据官方介绍,豆包视频生成模型语义理解能力、多个主体运动的复杂交互画面,以及多镜头切换的内容一致性均达到业界先进水平。对此火山引擎总裁谭待表示,“视频生成有很多难关亟待突破,豆包两款模型会持续演进,在解决关键问题上探索更多可能性,加速拓展AI视频的创作空间和应用落地”。
具体而言,豆包视频生成模型基于DiT架构,通过高效的DiT融合计算单元,让视频可在大动态与运镜中自由切换,同时还拥有变焦、环绕、平摇、缩放、目标跟随等多镜头语言能力。同时,火山引擎采用全新设计的扩散模型训练方法攻克了视频生成中的多镜头切换一致性难题。在镜头切换时,豆包视频生成模型可同时保持主体、风格、氛围的一致性。
此外豆包视频生成模型经过剪映、即梦AI等业务场景打磨和持续迭代,不仅具备专业级光影布局和色彩调和能力,生成画面视觉也极具美感和真实感。通过深度优化的Transformer结构,这一模型的泛化能力也大幅提升,支持3D动画、2D动画、国画、黑白、厚涂等多种风格,还可适配电影、电视、电脑、手机等各种设备的比例。据了解,豆包视频生成模型不仅适用于电商营销、动画教育、城市文旅、微剧本等企业场景,也能为专业创作者和艺术家们提供创作辅助。
目前新款豆包视频生成模型正在即梦AI内测版进行小范围测试,后续将逐步开放给所有用户。对此剪映和即梦AI市场负责人陈欣然表示,AI能够和创作者深度互动,共同创作,带来很多惊喜和启发,即梦AI希望成为用户最亲密和有智慧的创作伙伴。
值得一的是,此次活动中豆包大模型不仅新增视频生成模型,还发布了豆包音乐模型和同声传译模型,已全面覆盖语言、语音、图像、视频等全模态。
此外据火山引擎方面透露,豆包大模型的使用量实现在极速增长。截至今年9月,豆包语言模型的日均tokens使用量超过1.3万亿,相比5月首次发布时增加十倍,多模态数据处理量也分别达到每天5000万张图片和85万小时语音。
据谭待介绍,业内多家大模型目前最高仅支持300K甚至100K的TPM(每分钟token数),难以承载企业生产环境流量。为此豆包大模型默认支持800K的初始TPM,远超行业平均水平,客户还可根据需求灵活扩容。对此谭待表示,“在我们努力下,大模型的应用成本已经得到很好解决。大模型要从卷价格走向卷性能,卷更好的模型能力和服务”。
【以上内容转自“三易生活网”,不代表本网站观点。如需转载请取得三易生活网许可,如有侵权请联系删除。】
延伸阅读:
- 豆包大模型美妆智能体给美女们带来惊喜
- 字节跳动子公司推出AI机器人“豆包”,已开放内测
未经允许不得转载:头条今日_全国热点资讯网(头条才是今日你关心的) » 字节发布豆包视频生成模型,可保持多镜头一致性