Ubuntu 22.04 + Miniconda 手动安装 ComfyUI 教程

本文记录在 Ubuntu 22.04 服务器 上,通过 Miniconda 独立虚拟环境 手动安装 ComfyUI 的完整步骤。
适合有 NVIDIA 显卡的 AI 生图 / 视频生成服务器。

一、基础环境

示例环境:

系统:Ubuntu 22.04
Python 环境:Miniconda
显卡:NVIDIA GPU
ComfyUI 目录:~/ComfyUI
Conda 环境名:comfyui
Web 端口:8188

先确认显卡驱动正常:

nvidia-smi

如果能正常看到显卡信息,再继续安装。

二、安装系统依赖

sudo apt update
sudo apt install -y git wget curl aria2 ffmpeg build-essential python3-dev

三、创建 Miniconda 虚拟环境

创建环境:

conda create -n comfyui python=3.11 -y
进入环境:
conda activate comfyui
升级基础 Python 工具:
python -m pip install -U pip wheel setuptools

四、安装 PyTorch CUDA 版本

推荐直接安装 pip 版 PyTorch CUDA 12.1

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
安装完成后测试:
python - <<'PY'
import torch
print("torch:", torch.__version__)
print("cuda:", torch.cuda.is_available())
print("gpu_count:", torch.cuda.device_count())
for i in range(torch.cuda.device_count()):
    print(i, torch.cuda.get_device_name(i))
PY

正常情况下应该看到:

cuda: True
并且能显示服务器上的 NVIDIA 显卡。

五、下载 ComfyUI

回到用户目录:

cd ~
克隆 ComfyUI:
git clone https://github.com/comfyanonymous/ComfyUI.git
进入 ComfyUI 目录:
cd ~/ComfyUI
安装 ComfyUI 依赖:
pip install -r requirements.txt

六、安装 ComfyUI Manager

ComfyUI Manager 用于管理自定义节点、工作流和缺失依赖,建议安装。

在 ComfyUI 目录下执行:

cd ~/ComfyUI
pip install -r manager_requirements.txt

七、启动 ComfyUI

方式一:普通单机启动

cd ~/ComfyUI
conda activate comfyui
python main.py --listen 0.0.0.0 --port 8188 --enable-manager
启动成功后,终端会显示类似:
Starting server
To see the GUI go to: http://0.0.0.0:8188
浏览器访问:
http://服务器IP:8188

八、多显卡服务器指定显卡启动

如果服务器有多张显卡,并且只想让 ComfyUI 使用指定显卡,可以用:

CUDA_VISIBLE_DEVICES=2,3 python main.py --listen 0.0.0.0 --port 8188 --enable-manager
例如:
cd ~/ComfyUI
conda activate comfyui
CUDA_VISIBLE_DEVICES=2,3 PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True python main.py --listen 0.0.0.0 --port 8188 --enable-manager --reserve-vram 1
这里表示:
只让 ComfyUI 使用物理 GPU 2 和 GPU 3
需要注意,进入 ComfyUI 后:
cuda:0 = 物理 GPU 2
cuda:1 = 物理 GPU 3
因为 CUDA_VISIBLE_DEVICES=2,3 会重新映射显卡编号。

九、启动参数说明

--listen 0.0.0.0

允许局域网或远程浏览器访问 ComfyUI。

--listen 0.0.0.0

--port 8188

指定 ComfyUI Web 端口。

--port 8188

--enable-manager

启用 ComfyUI Manager。

--enable-manager

CUDA_VISIBLE_DEVICES=2,3

限制 ComfyUI 只能看到指定显卡。

CUDA_VISIBLE_DEVICES=2,3

PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True

减少 PyTorch 显存碎片问题。

PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True

--reserve-vram 1

预留 1GB 显存,降低爆显存概率。

--reserve-vram 1

十、推荐启动命令

如果服务器上只有 ComfyUI 一个 AI 服务,可以用:

cd ~/ComfyUI
conda activate comfyui
python main.py --listen 0.0.0.0 --port 8188 --enable-manager

如果服务器有多张显卡,并且只想让 ComfyUI 使用 GPU 2、3,推荐用:

cd ~/ComfyUI
conda activate comfyui
CUDA_VISIBLE_DEVICES=2,3 PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True python main.py --listen 0.0.0.0 --port 8188 --enable-manager --reserve-vram 1

十一、验证安装是否成功

浏览器打开:

http://服务器IP:8188
如果可以进入 ComfyUI 页面,就说明 ComfyUI 本体已经安装完成。

终端中也应该能看到类似:

Starting server
To see the GUI go to: http://0.0.0.0:8188

十二、以后更新 ComfyUI

进入环境:

conda activate comfyui
进入 ComfyUI 目录:
cd ~/ComfyUI
更新主程序:
git pull
更新依赖:
pip install -r requirements.txt
更新 Manager 依赖:
pip install -r manager_requirements.txt

总结

通过以上步骤,就可以在 Ubuntu 22.04 服务器上完成 ComfyUI 的手动安装。

最终目录结构大致如下:

~/ComfyUI
├── main.py
├── requirements.txt
├── manager_requirements.txt
├── models
├── custom_nodes
└── user
后续需要使用不同模型时,只需要继续安装对应模型文件、自定义节点和工作流即可。

原创文章,作者:朋远方,如若转载,请注明出处:https://caovan.com/ubuntu-2204-miniconda-shoudonganzhuang-comfyui-jiaocheng/.html

(0)
打赏 微信扫一扫 微信扫一扫
朋远方的头像朋远方
Ubuntu22.04+4x2080Ti22G+vLLM+Qwen3.6-27B-AWQ-INT4 部署教程
上一篇 2026年5月4日 下午2:35
在Ubuntu服务器部署开源小智ESP-32后端服务教程
下一篇 2025年3月16日 上午12:22

相关推荐

发表回复

登录后才能评论