•   炒股,就在一键之间,智慧投资,让财富迅速增长!跟随市场,赢在未来,炒股,让你成为财富的掌舵者!
  •   炒股不仅是追求短期收益的工具,更是一种智慧的投资方式。跟随市场的变化,调整自己的投资策略,实现财富的稳步增长。

国投证券软件下载:配资公司官方网-“导演级AI”出道:一场Seedance 2.0引发的产业冲击波

摘要:   2月10日开盘,中文在线42.32元的股价较前一日收盘时上涨20%,阅文40.08港元的开盘价较前一日的收盘价上涨6%,掌阅科技股价再度出现10%涨幅。这波...
代码 名称 当前价 涨跌幅 最高价 最低价 成交量(万)

  2月10日开盘,中文在线42.32元的股价较前一日收盘时上涨20% ,阅文40.08港元的开盘价较前一日的收盘价上涨6%,掌阅科技股价再度出现10%涨幅。这波从2月9日开始的资本热度,或许与一款AI视频模型有关 。

  2026年开年 ,字节跳动内测的AI视频模型Seedance2.0意外引爆全球关注,其“文本生成多镜头电影级视频”的能力被业界称为“导演级AI ”。

  这股热潮并非孤例。海外,OpenAI的Sora、Runway的Gen-3持续迭代;国内 ,快手“可灵” 、生数科技“Vidu”、MiniMax“Hailuo ”等竞品亦在长视频、主体一致性等赛道激烈角逐 。然而 ,当AI仅凭一张照片就能“复刻”声音与未见场景时,数据合规与版权边界问题也随之浮出水面。

  “对物理规则的遵循”

  “当前地表最强的视频生成模型 ”试用Seedance2.0模型后,游戏科学CEO 、《黑神话:悟空》制作人冯骥发布数百字评论 ,并称其标志着“AIGC(人工智能生成内容)的童年时代结束 ”。

  在海外社交媒体上,AI影视创意内容领域最为活跃的创作者之一“el.cine”坦言,Seedance 2.0是目前唯一让他产生强烈危机感的AI模型 。

  何为Seedance 2.0?

  Seedance 2.0是字节跳动推出的新一代AI视频生成模型 ,从2月7日开始小范围内测 。该模型主打多模态参考与高效创作能力。模型支持首尾帧、视频片段及音频综合参考,能精准复刻运镜逻辑、动作细节与音乐氛围,核心突破在于将AI生成与后期编辑融合 ,用户可直接修改不满意部分。Seedance 2.0 模型在复杂叙事 、打斗镜头 、短剧生成等场景表现优异,能自动生成适配的背景音乐与音效,支持多种语言和指定歌曲歌词输入 。

  以冯骥提到的AI理解多模态信息为例 ,Seedance 2.0支持同时上传最多12个参考文件(图片、视频、音频),AI 自动学习并复刻画面构图 、角色特征、动作风格、镜头语言,不需要复杂提示词。

  开源证券研报则提及了Seedance 2.0的自运镜和分运镜能力。北京商报记者了解到 ,Seedance 2.0支持分镜图直接生成视频 ,在多个镜头中保持角色一致性 、灯光连贯性和风格统一,可制作预告片、故事片等复杂叙事内容 。

  一位内容制作者体验后表示,Seedance 2.0的转场和人物一致性比较惊艳。他告诉北京商报记者 ,“以前视频生成模式更多是让画面动起来,现在解决了一些细节问题,比如一致性、对物理规则的遵循 ,这些变化很细微,但体现在画面上会很明显”。

  还有谁在起飞?

  另一位制作者站在成本角度观察视频生成模型,“一个3秒480P的视频 ,大概3毛钱 。720P的3秒视频快1元,视频模型发展非常快,应该算是除了语言模型外 ,用量最大的模型了 ”。

  北京商报记者了解到,由于Seedance 2.0 尚在内测状态,暂无公开的收费标准。2025年6月 ,字节跳动推出的Seedance1.0 pro模型每千token 0.01元 ,每生成一条5秒的1080P视频3.67元 。

  “一款全新的人工智能视频模型Seedance 2.0正在中国进行测试,这绝对会让你大吃一惊。”“el.cine”感慨道,“中国的独立电影制作人已经开启了‘疯狂模式’ ,开始使用Seedance2.0制作电影。 ”

  这股在创作者端掀起的热情,与资本市场的活跃形成了情绪共振 。

  2月9日,A股传媒板块应声大涨 ,根据金融数据服务商东方财富的统计,文化传媒板块当天上涨4.79%,领涨A股所有行业板块 。个股方面 ,荣信文化 、中文在线、海看股份、捷成股份股价收获涨停板。

  “传媒板块上涨背后有春节档预期等多重因素,但Seedance 2.0的火爆也为市场注入了新的增长逻辑。”比达分析师李锦清向北京商报记者表示 。

  2月10日,中文在线继续涨停 ,股价收于42.34元,阅文集团收盘股价43.58港元,较前一日收盘价上涨15.4%。

  狂欢之下亦有隐忧 ,有创作者在测试中发现 ,模型仅凭一张人脸照片,就能生成高度相似的声音,并“脑补”出从未展示过的场景视角。

  对于用户反馈 ,字节跳动做出反应 。2月9日,即梦创作者社群中,平台运营人员发布消息称:“我们正在针对反馈进行紧急优化 ,Seedance2.0 目前暂不支持输入真人图片或视频作为主体参考 ”,并表示平台深知创意的边界是尊重,产品调整后会以更完善的面貌与大家正式见面。

  北京航空航天大学人工智能研究院教授沙磊表示:“AI 的进步从不会因争议停下脚步 ,而如何在技术创新与数据合规 、版权保护之间找到平衡?”

  在接受媒体采访时,中国科学院软件研究所研究员张立波表示,基于公开数据进行大模型的训练与调优 ,是全球AI行业普遍采用的技术路径。这一实践在大语言模型时期就已存在,模型训练使用了海量的书籍、博客、论坛等文本数据 。由于文字内容的归属感相对较低,而声音和视频则具有更强的个人与场景特定性 ,因此当前阶段 ,数据使用的责任与边界问题更加凸显。

  “战国时代”

  从OpenAI的Sora到字节跳动的Seedance 2.0,全球AI视频赛道已进入深水区。

  仅2026年开年至今,xAI的视频生成模型Grok Imagin 1.0版本全面上线 ,支持文生视频 、图生视频,单次生成时长10秒,分辨率为720P ,核心能力主要是视频生成与视频剪辑,xAI的老板马斯克(特斯拉CEO)第一时间转发了该消息 。

  生数科技的Vidu Q3强调专为漫剧 、短剧、影视剧打造,支持16秒音视频、音画同出 、多人对话。在国际权威AI基准测试机构Artificial Analysis 最新公布的榜单中 ,Vidu Q3 排名中国第一,全球第二,硬刚马斯克xAI Grok ,超越 Runway Gen-4.5 、Google Veo3.1和 OpenAI Sora 2。

  可灵3.0系列模型是2月初上线的“前辈 ”,这次快手一口气发布了可灵视频3.0、可灵视频3.0 Omni及可灵图片3.0 、可灵图片3.0 Omni模型,覆盖图片生成、视频生成、编辑及后期等影视级全流程链路 ,全生产环节切入 。

  如果从视频生成时长维度看 ,可灵3.0系列模型支持最长15秒的连续生成,和Vidu Q3一起“秒杀”Grok Imagin 1.0,在原生音画同出 、主角、道具及场景特征稳定等同行强调的能力上也均有升级 。商业化方面 ,截至2025年12月,可灵AI 已拥有超过6000万创作者,生成超过6亿个视频 ,服务超过3万家企业用户,年化收入运行率2.4亿美元。

  新鲜发布的Runway Gen 4.5模型主打图生视频,镜头控制和故事叙事能力。为了证明自家模型生成视频的逼真度 ,Runway做了一项1000人参与的调查,只有约一半的人能分辨出该模型和真实视频的区别 。

  在文渊智库创始人王超看来,“中国视频模型和国内同行几乎同时起步 ,在Sora之后,OpenAI没有推出更加惊艳的模型。但中国各个视频模型的各种能力比海外同行有过之而无不及。中国AI视频模型独树一帜” 。

  “很难说,哪款视频模型绝对更强 ,或海外与国内产品孰强孰劣 ” ,一位从业者告诉北京商报记者,“因为评价标准高度场景化,很多‘最强’评价来自KOL(关键意见领袖)主观体验或特定案例 ,不具备普适性,而且企业推出视频模型的初衷也不一样 ”。

  “我们布局视频生成的整体思路是从视频内容生产逐步迈向世界模型”,LongCat-Video 模型研究员康卓梁就坦白了美团发布视频生成模型的原因 ,“我们期望通过视频生成任务压缩物理世界知识,为未来内容创作、新型娱乐交互(如数字人) 、自动驾驶机器人等场景提供基础的技术底座。基于这一差异化目标,我们将长视频生成作为核心方向 。”

  未来 ,视频生成不仅服务于内容创作,更将成为模拟物理世界的重要载体。在这样的逻辑下,这一赛道的竞争将不再局限于“谁能生成更逼真的画面 ”。

  东财图解·加点干货

(文章来源:北京商报)

你可能想看:
分享到:

发表评论

评论列表

还没有评论,快来说点什么吧~