本文记录在 Ubuntu 22.04 服务器 上,通过 Miniconda 独立虚拟环境 手动安装 ComfyUI 的完整步骤。
适合有 NVIDIA 显卡的 AI 生图 / 视频生成服务器。
一、基础环境
示例环境:
系统:Ubuntu 22.04 Python 环境:Miniconda 显卡:NVIDIA GPU ComfyUI 目录:~/ComfyUI Conda 环境名:comfyui Web 端口:8188
先确认显卡驱动正常:
nvidia-smi
如果能正常看到显卡信息,再继续安装。
二、安装系统依赖
sudo apt update
sudo apt install -y git wget curl aria2 ffmpeg build-essential python3-dev
三、创建 Miniconda 虚拟环境
创建环境:
conda create -n comfyui python=3.11 -y
进入环境:
conda activate comfyui
升级基础 Python 工具:
python -m pip install -U pip wheel setuptools
四、安装 PyTorch CUDA 版本
推荐直接安装 pip 版 PyTorch CUDA 12.1:
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
安装完成后测试:
python - <<'PY'
import torch
print("torch:", torch.__version__)
print("cuda:", torch.cuda.is_available())
print("gpu_count:", torch.cuda.device_count())
for i in range(torch.cuda.device_count()):
print(i, torch.cuda.get_device_name(i))
PY
正常情况下应该看到:
cuda: True
并且能显示服务器上的 NVIDIA 显卡。
五、下载 ComfyUI
回到用户目录:
cd ~
克隆 ComfyUI:
git clone https://github.com/comfyanonymous/ComfyUI.git
进入 ComfyUI 目录:
cd ~/ComfyUI
安装 ComfyUI 依赖:
pip install -r requirements.txt
六、安装 ComfyUI Manager
ComfyUI Manager 用于管理自定义节点、工作流和缺失依赖,建议安装。
在 ComfyUI 目录下执行:
cd ~/ComfyUI
pip install -r manager_requirements.txt
七、启动 ComfyUI
方式一:普通单机启动
cd ~/ComfyUI
conda activate comfyui
python main.py --listen 0.0.0.0 --port 8188 --enable-manager
启动成功后,终端会显示类似:
Starting server To see the GUI go to: http://0.0.0.0:8188
浏览器访问:
http://服务器IP:8188
八、多显卡服务器指定显卡启动
如果服务器有多张显卡,并且只想让 ComfyUI 使用指定显卡,可以用:
CUDA_VISIBLE_DEVICES=2,3 python main.py --listen 0.0.0.0 --port 8188 --enable-manager
例如:
cd ~/ComfyUI
conda activate comfyui
CUDA_VISIBLE_DEVICES=2,3 PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True python main.py --listen 0.0.0.0 --port 8188 --enable-manager --reserve-vram 1
这里表示:
只让 ComfyUI 使用物理 GPU 2 和 GPU 3
需要注意,进入 ComfyUI 后:
cuda:0 = 物理 GPU 2 cuda:1 = 物理 GPU 3
因为
CUDA_VISIBLE_DEVICES=2,3 会重新映射显卡编号。九、启动参数说明
--listen 0.0.0.0
允许局域网或远程浏览器访问 ComfyUI。
--listen 0.0.0.0
--port 8188
指定 ComfyUI Web 端口。
--port 8188
--enable-manager
启用 ComfyUI Manager。
--enable-manager
CUDA_VISIBLE_DEVICES=2,3
限制 ComfyUI 只能看到指定显卡。
CUDA_VISIBLE_DEVICES=2,3
PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True
减少 PyTorch 显存碎片问题。
PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True
--reserve-vram 1
预留 1GB 显存,降低爆显存概率。
--reserve-vram 1
十、推荐启动命令
如果服务器上只有 ComfyUI 一个 AI 服务,可以用:
cd ~/ComfyUI conda activate comfyui python main.py --listen 0.0.0.0 --port 8188 --enable-manager
如果服务器有多张显卡,并且只想让 ComfyUI 使用 GPU 2、3,推荐用:
cd ~/ComfyUI conda activate comfyui CUDA_VISIBLE_DEVICES=2,3 PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True python main.py --listen 0.0.0.0 --port 8188 --enable-manager --reserve-vram 1
十一、验证安装是否成功
浏览器打开:
http://服务器IP:8188
如果可以进入 ComfyUI 页面,就说明 ComfyUI 本体已经安装完成。
终端中也应该能看到类似:
Starting server To see the GUI go to: http://0.0.0.0:8188
十二、以后更新 ComfyUI
进入环境:
conda activate comfyui
进入 ComfyUI 目录:
cd ~/ComfyUI
更新主程序:
git pull
更新依赖:
pip install -r requirements.txt
更新 Manager 依赖:
pip install -r manager_requirements.txt
总结
通过以上步骤,就可以在 Ubuntu 22.04 服务器上完成 ComfyUI 的手动安装。
最终目录结构大致如下:
~/ComfyUI ├── main.py ├── requirements.txt ├── manager_requirements.txt ├── models ├── custom_nodes └── user
后续需要使用不同模型时,只需要继续安装对应模型文件、自定义节点和工作流即可。
原创文章,作者:朋远方,如若转载,请注明出处:https://caovan.com/ubuntu-2204-miniconda-shoudonganzhuang-comfyui-jiaocheng/.html


微信扫一扫