腾讯发布了一个令人惊叹的项目 — HY-Motion(Hunyuan Motion)。 这个模型基于海量数据集训练,在文本生成动画方面表现出色。 你只需输入一段描述,就能获得完整的动画。效果真的非常震撼。
在本教程中,我将展示如何在 ComfyUI 中配置 HY-Motion 并启用 FBX 导出功能 — 这需要特定的 Python 版本。让我们开始吧。
插件地址: https://github.com/jtydhr88/ComfyUI-HY-Motion1

前提条件:安装 Miniconda
在开始之前,你需要在系统上安装 Miniconda。 本教程不涉及 Miniconda 的安装步骤,但它是必不可少的。 如果你还没有安装,请参考 Miniconda 官方安装指南。
为什么用 Conda?HY-Motion 的 FBX 导出功能仅支持 Python 3.11。 最新的便携版 ComfyUI 自带 Python 3.13,会导致 FBX 导出失败。Conda 可以让我们创建一个独立的 Python 3.11 环境,而不影响你的主 Python 安装。
第 1 步:创建 Python 3.11 环境
打开 PowerShell(Conda 需要在 PowerShell 中才能正常工作)。 我还建议使用 Cursor 或 VS Code 的终端 — 如果遇到问题,可以让 AI 助手帮你调试。
# 创建一个 Python 3.11 的新环境
conda create -n comfy311 python=3.11 -y
# 激活环境
conda activate comfy311现在你已经进入了一个全新的 Python 3.11 环境。接下来安装的所有内容都将隔离在这个环境中。
第 2 步:克隆并安装 ComfyUI
导航到你想安装新 ComfyUI 实例的目录。 可以是任何位置 — 我选择了 E: 盘,你可以根据自己的情况选择。
# 进入你选择的目录(按需修改路径)
cd E:\
# 将 ComfyUI 克隆到新文件夹
git clone https://github.com/comfyanonymous/ComfyUI.git ComfyUI_py311
# 进入 ComfyUI 文件夹
cd ComfyUI_py311重要提示:在安装 ComfyUI 的依赖之前, 我们需要先安装带有 CUDA 支持的 PyTorch。 如果你跳过这一步直接运行 pip install torch, 你将得到 CPU 版本 — 速度会慢很多。
--index-url 参数, pip 会安装仅支持 CPU 的 PyTorch。你需要 GPU 加速。# 先升级 pip
python -m pip install --upgrade pip
# 安装带有 CUDA 支持的 PyTorch(这一步至关重要!)
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu124
# 然后安装 ComfyUI 依赖
pip install -r requirements.txt到这里,你已经有了一个可用的 ComfyUI 安装。但我们还需要添加 HY-Motion。
第 3 步:安装 HY-Motion 插件
现在让我们安装 ComfyUI-HY-Motion1 插件。 我们需要将其克隆到 custom_nodes 文件夹中。
# 导航到 custom_nodes 文件夹
cd custom_nodes
# 克隆 HY-Motion 插件
git clone https://github.com/jtydhr88/ComfyUI-HY-Motion1
# 进入插件文件夹
cd ComfyUI-HY-Motion1
# 安装插件依赖(包含 FBX SDK)
pip install -r requirements.txtrequirements.txt 中已经包含了 FBX SDK(fbxsdkpy)。 如果你想确认它是否已安装,可以运行以下命令 — 如果一切正常, 它会显示 "requirement already satisfied":
pip install fbxsdkpy --extra-index-url https://gitlab.inria.fr/api/v4/projects/18692/packages/pypi/simple第 4 步:下载模型权重
HY-Motion 需要从 Hugging Face 手动下载模型权重。 你需要在 ComfyUI 安装目录中创建正确的文件夹结构。
以下是文件夹结构的设置方法:
- 进入你的 ComfyUI
models文件夹 - 创建一个名为
HY-Motion的新文件夹 - 在其中创建
ckpts - 在 ckpts 中创建
tencent - 下载并放置
HY-Motion-1.0和/或HY-Motion-1.0-Lite文件夹
ComfyUI/
└── models/
└── HY-Motion/ # 创建此文件夹
└── ckpts/ # 创建此文件夹
├── tencent/ # 创建此文件夹
│ ├── HY-Motion-1.0/ # 从 HuggingFace 下载
│ │ ├── config.yml
│ │ └── latest.ckpt
│ └── HY-Motion-1.0-Lite/ # 从 HuggingFace 下载
│ ├── config.yml
│ └── latest.ckpt
└── GGUF/ # 可选:仅在使用 GGUF 时需要
└── Qwen3-8B-Q4_K_M.gguf如果你想使用 GGUF 量化模型作为文本编码器, 还需要单独下载:
显存需求
根据你的可用显存选择模型。运动模型和文本编码器会同时运行, 因此需要将两者的需求加在一起:
运动模型
- HY-Motion-1.0~8GB+ 显存
- HY-Motion-1.0-Lite~4GB+ 显存
Qwen3-8B 文本编码器
- HuggingFace(未量化)~16GB 显存
- HuggingFace int8~8GB 显存
- HuggingFace int4~4GB 显存
- GGUF Q4_K_M~5GB 显存
第 5 步:运行 ComfyUI
在 ComfyUI 根目录打开终端(确保你的 Conda 环境仍处于激活状态), 然后启动 ComfyUI:
# 确保你在 ComfyUI 根目录下
cd E:\ComfyUI_py311
# 运行 ComfyUI
python main.py测试工作流位于 HY-Motion 插件目录中的 workflow 文件夹中。加载其中一个即可开始使用。

FBX 导出与性能
FBX 导出效果非常好。在我的 12GB 显卡上使用 Lite 模型, 生成一段 12 秒的动画大约需要 40 秒 — 速度非常快。
输出格式为 SMPLX 动画,可以直接导入 Blender。 如果你想将动画用于其他骨骼(例如用于 Unreal Engine 的 Mixamo), 则需要进行骨骼重定向。

总结
HY-Motion 是一个极其强大的工具。 仅通过文本提示就能生成高质量的动画,而 FBX 导出 使其能够真正应用于实际的制作流程中。
非常感谢 腾讯混元团队创造了 HY-Motion, 以及 jtydhr88 构建了 ComfyUI 集成插件,让更多人能够使用这项技术。
简要总结:安装 Miniconda → 创建 Python 3.11 环境 → 克隆 ComfyUI → 安装带 CUDA 的 PyTorch → 克隆 HY-Motion 插件 → 下载权重 → 运行并享受 文本生成动画与 FBX 导出功能!
