图片来源:界面
界面新闻记者 | 肖芳
11月14日,界面新闻从多个知情人士处获悉,字节跳动视频生成模型PixelDance将很快在即梦AI上线,面向公众开放使用,具体的上线时间将会早于Sora正式发布的时间。
Runway联合创始人Cristóbal Valenzuela曾在11月9日称,OpenAI计划在大约两周内发布Sora。Cristóbal Valenzuela曝出该消息之前,OpenAI公布了一条联合伦敦艺术家Jon Uriarte创作的短片,似乎是在为Sora的正式发布预热。
这意味着,PixelDance很可能会在最近几天内发布。界面新闻向字节跳动方面求证此事,截至发稿,对方暂未回应。
字节跳动在大模型领域一直动作频频。9月24日,该公司一口气发布了豆包视频生成PixelDance、豆包视频生成Seaweed两款大模型,并通过即梦AI和火山引擎面向创作者和企业客户小范围邀测。据知情人士透露,PixelDance除了即将在即梦AI上线之外,还将于近期在豆包开启内测。
从其此前展示的视频生成效果来看,豆包视频生成模型无论是语义理解能力,多个主体运动的复杂交互画面,还是多镜头切换的内容一致性方面,都表现出不错的效果。
其中一个视频输入是,“特写⼀个⼥⼈的面部,有些⽣⽓,戴上了⼀副墨镜,这时⼀个男⼈从画⾯右侧⾛进来抱住了她。”视频画面显示,其不仅遵循了这个复杂指令,还能够按指令的时序去完成连续的动作,两个主体之间也能比较顺畅地进行交互,且人物表情较为准确传达了指令所描述的情绪。
据界面新闻了解,人物动作是当下视频生成模型共同面临的挑战,即使是Sora在人物动作上做得也不够好。OpenAI在今年年初公布的视频样片显示,Sora还是以运镜和基础动作为主,复杂动作较差,但豆包视频模型生成公布的样片在动作上有了明显提升。
一位多模态大模型科学家对比PixelDance和Sora公布的样片后告诉界面新闻,如果样片效果保真的话,字节跳动的视频生成大模型确实是相当不错。从学术角度或者模型能力角度来说,其肯定达到了Sora的水平,尤其在人物动作上非常棒。
火山引擎总裁谭待此前也透露,豆包视频模型经过剪映、即梦AI等业务场景的持续打磨和迭代,优化了Transformer结构,大幅提升了豆包视频生成的泛化能力。同时,豆包视频生成模型基于DiT架构,让视频在大动态与运镜中自由切换,拥有变焦、环绕、平摇、缩放、目标跟随等多镜头语言能力。在镜头切换时可同时保持主体、风格、氛围的一致性是豆包视频生成模型的技术创新所在。
而从OpenAI近期公布的最新短片来看,Sora也在着重提升其在人物动作上的能力。该短片处理的是多人坐在椅子上飞行的场景,无论是照片质量还是细节处理上,都更接近照片的水准,人物动作也更加自然。
若PixelDance正式面向公众开放,或意味着其在技术上已较为成熟。对于豆包视频生成模型的发布节奏,谭待曾透露,豆包系列大模型并不是按照某个固定的时间计划发布的,有好东西就尽快推出。
“我们的逻辑是推出的产品要质量可靠,有充分的用户反馈,不能是半成品。就像视频和语言模型发布一样,不一定要抢之一,要推出成熟的产品。”谭待说。
发表评论
2024-11-30 13:10:44回复
2024-11-30 13:14:27回复
2024-11-30 13:17:34回复
PixelDance即将上线令人期待,字节跳动在大模型领域的持续创新展现了其技术实力与决心;火山引擎总裁谭待强调产品质量和用户反馈的重要性而非追求速度的做法值得赞赏!对于视频生成大模型的未来充满期待和信心。#字节跳动的科技力量#
2024-12-17 16:02:17回复