一句话定位
让 AI Agent 用 HTML 写视频。
写 HTML 文件 → 扔进 HyperFrames → 出来 MP4。不需要 After Effects,不需要 Premiere,不需要学 React。
写 HTML 文件 → 扔进 HyperFrames → 出来 MP4。不需要 After Effects,不需要 Premiere,不需要学 React。
2026 年 4 月,AI 视频生成公司 HeyGen($5 亿估值)开源了 HyperFrames——一个专门为 AI Agent 设计的视频渲染框架[1]。核心思路极其简单:你写 HTML + CSS + 数据属性定义动画,它渲染成视频文件。
为什么不用 React?为什么不用专有 DSL?因为目标用户不是人类开发者,而是 LLM。Claude、GPT、Gemini 生成 HTML 的能力已经非常成熟,但生成 React 组件还有很多坑。HyperFrames 选择了 LLM 最擅长的输入格式。
解决什么问题
传统的视频制作流程:
旧流程 想法 → Figma 设计 → After Effects 动画 → Premiere 剪辑 → 导出 → 祈祷渲染成功
耗时:数小时到数天。工具链:3-4 个专业软件。
耗时:数小时到数天。工具链:3-4 个专业软件。
HyperFrames 告诉 Claude Code "做一个产品介绍视频" → Agent 生成 HTML →
耗时:分钟级。工具链:一个 CLI 命令。
npx hyperframes render → MP4耗时:分钟级。工具链:一个 CLI 命令。
技术架构
三个核心技术决策让 HyperFrames 与众不同:
1. 纯 HTML,不用 React
组合文件就是普通 HTML + CSS + 数据属性(
data-duration、data-fps)。没有专有 DSL,没有 JSX,没有编译步骤。LLM 生成 HTML 的准确率远高于生成 React 组件[2]。
2. 确定性渲染
相同输入 = 完全相同的输出。每一帧通过 Chrome 的
beginFrame API 独立捕获,不依赖系统时钟。公式:Frame = floor(time × fps)。这对 CI/CD 流水线和自动化测试至关重要——你可以断言"这个视频的第 30 帧应该长这样"[3]。
3. Agent 优先 CLI
CLI 默认非交互式——所有输入通过标志传递,纯文本输出,快速失败。Claude Code 安装后自动注册斜杠命令:
/hyperframes(创作)、/gsap(动画帮助)[2]。
渲染管线:HTML → Chrome Headless (beginFrame) → 逐帧捕获 → FFmpeg 编码 → MP4/MOV/WebM
3 分钟上手
# 初始化项目
npx hyperframes init my-video
# 实时预览
npx hyperframes preview
# 渲染为 MP4
npx hyperframes render -o output.mp4
# 添加预制组件(50+ 可选)
npx hyperframes add social-overlay
npx hyperframes init my-video
# 实时预览
npx hyperframes preview
# 渲染为 MP4
npx hyperframes render -o output.mp4
# 添加预制组件(50+ 可选)
npx hyperframes add social-overlay
支持本地运行或 Docker 容器化部署。输出格式支持 MP4、MOV、WebM。
对比 Remotion
Remotion 是目前程序化视频领域最主流的框架。两者定位不同——Remotion 为开发者设计,HyperFrames 为 Agent 设计。
| 维度 | HyperFrames | Remotion |
|---|---|---|
| 输入格式 | 纯 HTML + 数据属性 | React JSX |
| 学习曲线 | 低(会 HTML 即可) | 高(需要 React 知识) |
| LLM 友好度 | 高(HTML 是 LLM 最擅长的) | 中(React 组件生成容易出错) |
| Agent 集成 | 一等公民(斜杠命令) | 无原生支持 |
| 动画框架 | GSAP / Lottie / CSS / Three.js | React 组件 |
| 渲染模型 | 确定性(帧号驱动) | 帧号 + 函数式 React |
| CLI 交互 | 非交互式 | 交互式 |
| 开源 | 是 | 是 |
背后的公司:HeyGen
Joshua Xu — CEO
CMU 计算机硕士,同济本科。曾是 Snapchat 前 100 名员工,在 Snap 工作超 6 年,负责广告平台和十亿级 ML 系统[4]。
Wayne Liang — 联合创始人
前 ByteDance 产品设计师,同济大学校友。2020 年 11 月共同创办 Surreal(HeyGen 前身)。
融资情况
$65.6M 总融资
Series A(2024 年 6 月):$60M,估值 $5 亿。Benchmark 领投,Conviction(Sarah Guo)、Thrive Capital、Bond Capital 参投[5]。
种子轮:$9M,Sequoia Capital China、ZhenFund 等参投。
业绩:从 $1M 到 $35M+ ARR 仅用时约 1 年,2023 Q2 实现盈利。
种子轮:$9M,Sequoia Capital China、ZhenFund 等参投。
业绩:从 $1M 到 $35M+ ARR 仅用时约 1 年,2023 Q2 实现盈利。
50+ 预制组件
开箱即用的组件库,通过
npx hyperframes add [name] 一键安装[2]:
社交媒体
覆盖层、评论动画、关注按钮
覆盖层、评论动画、关注按钮
转场效果
着色器转场、分屏、缩放
着色器转场、分屏、缩放
数据可视化
图表动画、进度条、计数器
图表动画、进度条、计数器
电影级效果
打字机、故障效果、粒子
打字机、故障效果、粒子
编辑观点
HyperFrames 的核心洞察是一个非常朴素的观察:LLM 生成 HTML 又快又好,那为什么不让 Agent 用 HTML "写"视频?
这比看起来意义更大。当 Claude Code Routines 让 Agent 可以按计划自动运行、Managed Agents 让 Agent 可以对外提供服务——Agent 的"输出物"不再局限于代码和文本。HyperFrames 让视频成为 Agent 的原生输出格式。
想象一下:你在 Claude Code 里配一个 Routine,每天凌晨 2 点拉取产品数据 → 调 HyperFrames 生成数据大盘视频 → 推到 Slack。全程没有人类参与。
HeyGen 开源这个项目的商业逻辑也很清晰:HyperFrames 负责让开发者习惯用代码做视频,当他们需要真人数字替身、语音合成、多语言本地化的时候,自然就会用到 HeyGen 的付费 SaaS 产品。开源工具做入口,付费服务做转化。
以前 Agent 的输出是代码和文本。
现在视频也是 Agent 的原生输出。
现在视频也是 Agent 的原生输出。
参考文献
[1] HyperFrames GitHub Repository — github.com/heygen-com/hyperframes
[2] HyperFrames 官方文档 — hyperframes.heygen.com
[3] HyperFrames 贡献指南 — CONTRIBUTING.md
[4] Joshua Xu LinkedIn — linkedin.com/in/buffxz
[5] HeyGen Series A 融资公告 — heygen.com/blog
[6] HeyGen Wikipedia — en.wikipedia.org/wiki/HeyGen
[7] Tracxn HeyGen 融资数据 — tracxn.com
[8] X 社区讨论 — @rohanpaul_ai
本研报由 AI 辅助撰写,数据截至 2026 年 4 月 18 日。