首页 游戏 软件 资讯 排行榜 专题
首页
专题列表
视频生成技术:AI赋能创意新纪元

视频生成技术:AI赋能创意新纪元

2026-02-28

视频生成技术正快速重塑内容创作格局。本专题聚焦AI视频生成最新进展,涵盖影视制作、短视频创作、广告营销等应用场景。整合前沿教程、实战攻略与行业趋势分析,助力创作者高效生成高质量视频内容,提升效率与创意表现力,开启智能视频创作新时代。

视频生成技术:AI赋能创意新纪元

TOP1

视频生成模型SeeDance走红,北青实测三大模型应用效果

“2025年春节DS(DeepSeek)让所有人用上了AI,2026年春节SD(SeeDance)让视频生成模型火遍全网”,最近一句流行语道出了视频生成模型SeeDance 的走红。2月14日,火山
视频生成模型SeeDance走红,北青实测三大模型应用效果
查看详情

TOP2

港大AI视频技术突破:机器人首获“透视眼”实现超视野导航

这项由香港大学研究团队主导的突破性研究于2026年2月发表在计算机视觉顶级期刊上,论文编号为arXiv:2602 05827v1。该研究首次将视频生成技术引入机器人导航领域,让机器人能够在看不见目标
港大AI视频技术突破:机器人首获“透视眼”实现超视野导航
查看详情

TOP3

视频生成新突破:迈向通用世界模拟器的关键进展

近年来,视频生成(Video Generation)与世界模型(World Models)已跃升为人工智能领域最炙手可热的焦点。从 Sora 到可灵(Kling),视频生成模型在运动连续性、物体交互
视频生成新突破:迈向通用世界模拟器的关键进展
查看详情

TOP4

BridgeV2W模型:如何让机器人通过视频生成预演未来世界

机器人如何 "脑补 "未来?想象一下,你面前摆着一杯咖啡,你伸手去拿,在你的手真正触碰到杯子之前,你的大脑已经在 "脑补 "了整个过程:手臂将如何移动、杯子会是什么触感、抬起后桌面的样子……这种对未来场景的
BridgeV2W模型:如何让机器人通过视频生成预演未来世界
查看详情

TOP5

PickStyle视频风格适配器:用上下文迁移完成视频风格转换

论文提出PickStyle框架,用风格适配器增强预训练网络,靠配对静态图像数据训练,还通过构建合成训练片段弥合差距,引入CS-CFG确保风格迁移与内容保留。实验表明,该方法能实现优质视频转换,优于现
PickStyle视频风格适配器:用上下文迁移完成视频风格转换
查看详情

TOP6

清华系初创企业获视频生成领域最大单笔融资

智东西作者 陈骏达编辑 李水青智东西2月5日报道,今天,北京多模态生成技术创企生数科技宣布完成超过6亿元人民币A+轮融资。生数科技还披露,2025年该公司实现用户和收入超10倍增长,用户和业
清华系初创企业获视频生成领域最大单笔融资
查看详情

TOP7

首个Deep Research评测基准:视频理解与开放网络搜索

来自QuantaAlpha、兰州大学、香港科技大学(广州)、北京大学等机构的研究者联合推出了首个视频深度研究(Video Deep Research)评测基准VideoDR。 在传统的视频问答(Vi
首个Deep Research评测基准:视频理解与开放网络搜索
查看详情

TOP8

MoonMath突破视频AI瓶颈:闪电生成背后的关键技术

这项由MoonMath ai团队的Dor Shmilovich、Tony Wu、Aviad Dahan和Yuval Domb共同完成的突破性研究发表于2025年神经信息处理系统会议(NeurIPS
MoonMath突破视频AI瓶颈:闪电生成背后的关键技术
查看详情

TOP9

PickStyle指南:用上下文风格适配器实现视频风格转换

PICKSTYLE 是一个基于 VACE 构建的视频到视频风格迁移框架,它配备了上下文风格适配器和新颖的 CS-CFG 机制。 利用扩散模型做视频风格迁移,想保留原视频内容的同时渲染成指定风格,但面
PickStyle指南:用上下文风格适配器实现视频风格转换
查看详情

TOP10

MultiTalk模型解析:98.7%语音视觉对齐精度的多角色对话SOTA

MultiTalk以DiT(Diffusion-in-Transformer)为基础的视频扩散模型作为其核心骨架。 由中山大学、美团、港科大开源的MultiTalk 可实现多虚拟人对话视频生成。在语
MultiTalk模型解析:98.7%语音视觉对齐精度的多角色对话SOTA
查看详情

TOP11

华盛顿大学AI突破:视频生成实现“边想边画”创作

这项由华盛顿大学的洪苏成(Susung Hong)与Adobe研究院的葛崇健(Chongjian Ge)、张志飞(Zhifei Zhang)、王瑞贤(Jui-Hsien Wang)合作完成的研究发表
华盛顿大学AI突破:视频生成实现“边想边画”创作
查看详情

TOP12

阿里与中科院:突破视频生成模型创意边界的关键一步

这是一项由中国科学院大学、阿里巴巴高德地图事业部、中国科学院自动化研究所以及清华大学、东南大学的研究团队共同完成的突破性研究。论文由吴美琪、朱家树、冯晓坤、陈楚彬、朱晨等多位研究者撰写,已发表在20
阿里与中科院:突破视频生成模型创意边界的关键一步
查看详情

TOP13

豆包视频功能升级,支持同步生成声音与画面

近日,豆包App视频生成能力升级,支持Seedance1 5 Pro模型,可一键生成声音和画面相匹配的有声视频。打开豆包App对话框,选择“照片动起来”,上传图片并输入提示词,选择“1 5 Pro”
豆包视频功能升级,支持同步生成声音与画面
查看详情

TOP14

字节跳动破解AI记忆难题:视频生成如何实现连续思维

这项由香港中文大学的郭宇伟、字节跳动的杨策元等研究团队合作完成的突破性研究,于2024年12月发表在计算机视觉领域的顶级会议上。对这项研究感兴趣的读者可以通过arXiv:2512 15702v1查询
字节跳动破解AI记忆难题:视频生成如何实现连续思维
查看详情

TOP15

美团开源LongCat-Video-Avatar模型,支持情感表达虚拟人生成

IT之家 12 月 18 日消息,据“龙猫 LongCat”公众号今晚的推文,美团 LongCat 团队正式发布并开源 SOTA 级虚拟人视频生成模型 ——LongCat-Video-Avatar。
美团开源LongCat-Video-Avatar模型,支持情感表达虚拟人生成
查看详情