大大小小 ACTIVITIES

대대소소의 소식을 전합니다.

ABOUT US

블로거 대대소소가 운영하는 블로그입니다. 다양한 정보와 인사이트를 공유합니다.

INNOVATION

최신 기술과 트렌드를 통해 혁신적인 컨텐츠를 제공합니다.

CONTENT

유용하고 흥미로운 컨텐츠를 지속적으로 업데이트합니다.

ComfyUI 오류 해결 - Out of Memory

안녕하세요! ComfyUI 쓴 지 이제 1년 정도 됐는데, 처음에 정말... GPU 메모리 부족 오류 때문에 미칠 뻔했거든요 😭

특히 Stable Diffusion 모델 여러 개 돌리다가 "Out of Memory" 뜨면서 컴퓨터가 멈추는 거 보면 진짜 막막하더라고요. 그래도 이것저것 삽질하면서 나름대로 해결 방법들을 찾았어요!

완전 전문가는 아니지만, 제가 겪었던 빡침 포인트들과 실제로 효과 본 해결법들을 정리해봤습니다. 혹시 저처럼 ComfyUI 오류 때문에 고생하시는 분들께 도움이 되면 좋겠어요 🙏

📋 목차 

  1. Out of Memory 오류 완벽 해결법 ⭐ (가장 중요!)
  2. GPU 메모리 초기화 방법 (Windows/Linux)
  3. 근본적인 메모리 관리 전략
  4. 기타 자주 묻는 오류들
  5. 오류 예방 체크리스트
  6. 실전 FAQ

1. Out of Memory 오류 완벽 해결법 ⭐

자, 이제 본론입니다! 이 부분 때문에 여기 오신 분들 많으실 거예요. 제가 시도해본 모든 방법들을 난이도 순서대로 정리했어요.

🎯 오류 발생 원인 (제가 이해한 바로는)

ComfyUI는 Stable Diffusion 모델들을 GPU VRAM에 올려서 작동하는데요:

  1. 모델이 너무 큼: SDXL 모델 하나만 6~7GB 먹어요
  2. 워크플로우가 복잡함: ControlNet, LoRA 여러 개 동시 사용
  3. 배치 사이즈가 큼: 한 번에 여러 장 생성하려고 할 때
  4. 메모리 정리 안 됨: 이전 작업의 메모리가 안 비워진 상태

처음에 저는 8GB VRAM 그래픽카드로 SDXL 돌리려다가... 완전 멘붕이었어요 😅

💡 해결 방법 1: 즉시 적용 가능한 설정 (난이도: ⭐)

ComfyUI 실행 시 명령줄 인자를 추가하는 방법이에요. 이게 가장 빠르고 효과적이더라고요!

Windows 사용자:

ComfyUI 폴더에 있는 run_nvidia_gpu.bat 파일을 메모장으로 열어서 수정해주세요.

 
 
batch
@echo off
cd /d "%~dp0"

:: 기본 실행 명령어
python main.py --lowvram --preview-method auto

pause

주요 옵션 설명:

옵션설명제 경험
--lowvram VRAM 4~8GB에 최적화 RTX 3060 12GB에서도 이거 켜니까 안정적이더라고요
--medvram VRAM 6~10GB에 적합 중간 성능 그래픽카드 쓰시면 이거요!
--novram VRAM 거의 안 쓰고 RAM 사용 엄청 느려지지만 오류는 안 나요
--gpu-only VAE를 제외한 모든 걸 GPU에 VRAM 여유 있으면 더 빨라요
--highvram 16GB 이상에서 최대 성능 RTX 4090 부러워요...

제가 실제로 쓰는 조합 (RTX 3060 12GB 기준):

 
 
batch
python main.py --lowvram --preview-method auto --force-fp16

--force-fp16을 추가하니까 메모리 사용량이 확 줄더라고요! (정밀도는 약간 떨어지지만 눈에 잘 안 보여요)

Linux/Mac 사용자:

터미널에서 실행할 때 이렇게 해주세요:

 
 
bash
python main.py --lowvram --preview-method auto

💡 해결 방법 2: GPU 메모리 즉시 초기화 (난이도: ⭐⭐)

작업 중에 메모리가 부족해지면, GPU 프로세스를 강제 종료하고 다시 시작하는 방법이에요.

Windows 방법:

방법 A: 안전한 방법 (추천!)

  1. Ctrl + C로 ComfyUI 터미널 종료
  2. 작업 관리자 (Ctrl + Shift + Esc) 열기
  3. "세부 정보" 탭에서 python.exe 프로세스 찾기
  4. 마우스 우클릭 → "작업 끝내기"
  5. ComfyUI 재시작

방법 B: 명령어로 한 번에 (고급)

관리자 권한으로 명령 프롬프트(CMD) 실행 후:

 
 
batch
# Python 프로세스만 종료 (더 안전해요)
TASKKILL /F /IM python.exe

# 또는 특정 PID만 종료
TASKKILL /F /PID [프로세스ID]

⚠️ 주의사항: 사용자가 제시한 TASKKILL /F /FI "PID ge 1000" 명령어는 PID 1000 이상의 모든 프로세스를 강제 종료하는 거라 정말 위험해요!

이거 잘못하면 시스템 프로세스까지 죽여서 컴퓨터가 먹통될 수 있거든요. 절대 사용하지 마세요! 😱

제가 만든 안전한 배치 스크립트:

reset_gpu.bat 파일 만들어서 사용하세요:

 
 
batch
@echo off
echo ComfyUI GPU 메모리 초기화 중...

:: Python 프로세스만 종료
TASKKILL /F /IM python.exe /T 2>nul

:: NVIDIA GPU 드라이버 재시작 (선택사항)
:: nvidia-smi --gpu-reset

echo 완료! 잠시 후 ComfyUI를 다시 실행하세요.
pause

이렇게 하면 Python 관련 프로세스만 안전하게 종료돼요!

Linux 방법:

 
 
bash
# Python 프로세스 확인
ps aux | grep python

# 특정 PID 종료
kill -9 [PID]

# 또는 모든 python 프로세스 종료
pkill -9 python

💡 해결 방법 3: ComfyUI 내부 설정 최적화 (난이도: ⭐⭐⭐)

ComfyUI 인터페이스 내에서도 메모리를 아끼는 설정들이 있어요!

1) VAE를 CPU로 옮기기

워크플로우에서 "VAEDecode" 노드를 선택하고:

  • 마우스 우클릭
  • "Run on CPU" 체크

VAE는 생각보다 VRAM을 많이 먹는데, CPU로 돌려도 크게 느려지지 않더라고요.

2) 프리뷰 비활성화

이미지 생성 중간 과정을 보여주는 프리뷰도 메모리를 꽤 먹어요:

설정 파일 수정: ComfyUI/extra_model_paths.yaml.example 파일을 복사해서 extra_model_paths.yaml로 만들고:

 
 
yaml
preview:
  method: none  # 프리뷰 끄기

3) 배치 사이즈 줄이기

한 번에 여러 장 생성하려고 하면 당연히 메모리 부족하겠죠?

KSampler 노드에서:

  • batch_size: 1로 설정 (처음엔 이것부터!)
  • 필요하면 나중에 2, 4로 늘려보세요

💡 해결 방법 4: 모델 최적화 (난이도: ⭐⭐⭐⭐)

1) Pruned 모델 사용하기

"Pruned" 모델은 불필요한 데이터를 제거해서 용량이 작은 버전이에요.

  • SDXL Base: 6.9GB → Pruned: 6.5GB
  • SD 1.5: 7.7GB → Pruned: 4.2GB

Civitai에서 다운로드할 때 "Pruned" 버전 찾아보세요!

2) FP16 모델 사용

FP32 (4byte) 대신 FP16 (2byte) 정밀도로 저장된 모델을 쓰면 메모리가 절반으로 줄어요.

변환 방법:

 
 
python
# model_converter.py
import torch
from safetensors.torch import load_file, save_file

# 모델 불러오기
model = load_file("original_model.safetensors")

# FP16으로 변환
model_fp16 = {k: v.half() for k, v in model.items()}

# 저장
save_file(model_fp16, "model_fp16.safetensors")

솔직히 말하면, 저는 귀찮아서 이미 변환된 거 다운받아 써요 😅

💡 해결 방법 5: 시스템 레벨 최적화 (난이도: ⭐⭐⭐⭐⭐)

1) 가상 메모리(페이징 파일) 늘리기

VRAM이 부족하면 시스템 RAM으로 넘어가는데, 이것도 부족하면 디스크를 사용해요.

Windows 설정:

  1. "시스템 속성" → "고급" 탭
  2. "성능" → "설정" → "고급"
  3. "가상 메모리" → "변경"
  4. "자동으로 관리" 체크 해제
  5. 초기 크기: 16384 MB (16GB)
  6. 최대 크기: 32768 MB (32GB)
  7. "설정" → "확인" → 재부팅

근데 솔직히 이건 임시방편이고, 진짜 느려요... SSD가 HDD보다는 나아요.

2) 다른 GPU 사용 프로그램 종료

작업 관리자에서 확인해보세요:

  • 크롬 (하드웨어 가속 끄기)
  • 디스코드 (하드웨어 가속 끄기)
  • OBS Studio
  • 게임 런처들

저는 ComfyUI 쓸 때는 다른 프로그램 다 끄고 해요. 그게 제일 확실하더라고요!


2. GPU 메모리 초기화 방법 총정리

🪟 Windows 사용자용

방법 1: 배치 스크립트 활용 (제가 매일 쓰는 방법!)

comfyui_restart.bat 파일 만들기:

 
 
batch
@echo off
echo ================================================
echo ComfyUI 완전 초기화 스크립트
echo ================================================
echo.

:: 1단계: Python 프로세스 종료
echo [1/4] Python 프로세스 종료 중...
TASKKILL /F /IM python.exe /T 2>nul
if %errorlevel% equ 0 (
    echo ✓ Python 프로세스 종료 완료
) else (
    echo ✓ 실행 중인 Python 없음
)
timeout /t 2 /nobreak >nul

:: 2단계: PyTorch 캐시 삭제 (선택사항)
echo.
echo [2/4] PyTorch 캐시 정리 중...
rmdir /s /q "%USERPROFILE%\.cache\torch" 2>nul
echo ✓ 캐시 정리 완료
timeout /t 1 /nobreak >nul

:: 3단계: GPU 상태 확인
echo.
echo [3/4] GPU 상태 확인 중...
nvidia-smi
timeout /t 3 /nobreak >nul

:: 4단계: ComfyUI 재시작
echo.
echo [4/4] ComfyUI 재시작 중...
cd /d "%~dp0"
start "" cmd /k "python main.py --lowvram --preview-method auto"

echo.
echo ================================================
echo 초기화 완료! ComfyUI가 새 창에서 실행됩니다.
echo ================================================
pause

이거 바탕화면에 바로가기 만들어두면 진짜 편해요!

방법 2: PowerShell 스크립트 (좀 더 고급)

Reset-ComfyUI.ps1:

 
 
powershell
# 관리자 권한 확인
if (-NOT ([Security.Principal.WindowsPrincipal][Security.Principal.WindowsIdentity]::GetCurrent()).IsInRole([Security.Principal.WindowsBuiltInRole] "Administrator")) {
    Write-Warning "관리자 권한으로 실행하세요!"
    Start-Process powershell.exe "-File `"$PSCommandPath`"" -Verb RunAs
    exit
}

Write-Host "=== ComfyUI GPU 메모리 초기화 ===" -ForegroundColor Cyan

# Python 프로세스 종료
Write-Host "`n[1/3] Python 프로세스 종료..." -ForegroundColor Yellow
Get-Process python -ErrorAction SilentlyContinue | Stop-Process -Force
Start-Sleep -Seconds 2
Write-Host "✓ 완료" -ForegroundColor Green

# PyTorch 캐시 정리
Write-Host "`n[2/3] 캐시 정리..." -ForegroundColor Yellow
$cachePath = "$env:USERPROFILE\.cache\torch"
if (Test-Path $cachePath) {
    Remove-Item $cachePath -Recurse -Force
    Write-Host "✓ 캐시 삭제 완료" -ForegroundColor Green
} else {
    Write-Host "✓ 캐시 없음" -ForegroundColor Green
}

# GPU 메모리 상태 확인
Write-Host "`n[3/3] GPU 상태 확인..." -ForegroundColor Yellow
nvidia-smi --query-gpu=memory.used,memory.total --format=csv
Write-Host "`n초기화 완료!" -ForegroundColor Green

pause

PowerShell은 배치보다 에러 처리가 깔끔해서 저는 이걸 더 선호해요!

🐧 Linux/Mac 사용자용

Bash 스크립트:

reset_comfyui.sh:

 
 
bash
#!/bin/bash

echo "=== ComfyUI GPU 메모리 초기화 ==="

# Python 프로세스 종료
echo -e "\n[1/3] Python 프로세스 종료 중..."
pkill -9 python
sleep 2
echo "✓ 완료"

# PyTorch 캐시 정리
echo -e "\n[2/3] 캐시 정리 중..."
rm -rf ~/.cache/torch/
echo "✓ 캐시 삭제 완료"

# GPU 상태 확인
echo -e "\n[3/3] GPU 상태:"
nvidia-smi --query-gpu=memory.used,memory.total --format=csv

echo -e "\n초기화 완료!"

실행 권한 부여:

 
 
bash
chmod +x reset_comfyui.sh
./reset_comfyui.sh

🔄 자동화 옵션: Watchdog 스크립트

메모리 사용량을 모니터링하다가 80% 넘으면 자동으로 초기화하는 스크립트예요.

memory_watchdog.py:

 
 
python
import subprocess
import time
import psutil

THRESHOLD = 80  # 80% 이상이면 재시작

def get_gpu_memory():
    """GPU 메모리 사용률 확인"""
    try:
        result = subprocess.run(
            ['nvidia-smi', '--query-gpu=memory.used,memory.total', '--format=csv,noheader,nounits'],
            capture_output=True, text=True
        )
        used, total = map(float, result.stdout.strip().split(','))
        return (used / total) * 100
    except:
        return 0

def restart_comfyui():
    """ComfyUI 재시작"""
    print("⚠️ GPU 메모리 임계값 초과! 재시작 중...")
    
    # Python 프로세스 종료
    for proc in psutil.process_iter(['name']):
        if 'python' in proc.info['name'].lower():
            proc.kill()
    
    time.sleep(3)
    
    # ComfyUI 재시작
    subprocess.Popen(['python', 'main.py', '--lowvram'])
    print("✓ 재시작 완료")

# 메인 루프
while True:
    memory_usage = get_gpu_memory()
    print(f"현재 GPU 메모리 사용률: {memory_usage:.1f}%")
    
    if memory_usage > THRESHOLD:
        restart_comfyui()
    
    time.sleep(60)  # 1분마다 체크
```

근데 솔직히 이건 좀 오버스펙인 것 같아요. 수동으로 재시작하는 게 더 나을 때도 많아요 😅

---

## 5️⃣ 근본적인 메모리 관리 전략

오류가 날 때마다 재시작하는 것보다, **애초에 오류가 안 나게** 하는 게 최고죠!

### 🎯 워크플로우 설계 팁

#### 1) 순차적으로 노드 실행하기

여러 노드를 한 번에 돌리지 말고, **Queue Prompt**를 눌러서 하나씩 실행하세요.
```
X 잘못된 예:
ControlNet + LoRA 5개 + Upscale 동시 실행 → 폭발💥

O 올바른 예:
Base 이미지 생성 → 저장 → ControlNet 적용 → 저장 → Upscale

 

2) 체크포인트 저장 활용

중간 결과물을 Save Image 노드로 저장하고, 다음 단계는 새 워크플로우에서 불러오기.

3) 배치 처리 자제

한 번에 10장 생성하려다가 오류나는 것보다, 2장씩 5번 돌리는 게 안전해요.

📊 모델 관리 전략

1) 자주 쓰는 모델만 ComfyUI 폴더에

저는 모델을 별도 드라이브에 보관하고, 쓸 때만 심볼릭 링크로 연결해요:

Windows:

 
 
batch
mklink /D "ComfyUI\models\checkpoints\SDXL" "D:\AI_Models\SDXL"

Linux:

 
 
bash
ln -s /mnt/storage/AI_Models/SDXL ~/ComfyUI/models/checkpoints/SDXL

2) 모델 언로드 설정

ComfyUI/extra_model_paths.yaml:

 
 
yaml
model_management:
  model_unload_policy: "aggressive"  # 적극적으로 언로드
  model_cache_size: 1  # 한 번에 1개 모델만 메모리에

이렇게 하면 모델 전환 시 자동으로 이전 모델이 메모리에서 해제돼요.

💾 하드웨어 업그레이드 고려사항

솔직히 말하면... 그래픽카드 업그레이드가 가장 확실한 해결책이에요.

제 경험상 권장 VRAM:

용도최소권장이상적
SD 1.5 기본 4GB 8GB 12GB
SDXL 기본 8GB 12GB 16GB
SDXL + ControlNet 12GB 16GB 24GB
프로페셔널 작업 16GB 24GB 40GB+

근데 그래픽카드가 너무 비싸서... 😭 저도 3060 12GB 쓰면서 버티고 있어요.

대안:

  • 중고 그래픽카드: RTX 3090 중고 (24GB)
  • 클라우드 GPU: RunPod, Vast.ai (시간당 과금)
  • 구글 Colab Pro: 월 $10로 V100 사용 가능

6️⃣ 기타 자주 묻는 오류들

❌ Error: "No module named 'xxx'"

원인: Python 패키지 누락

해결법:

 
 
bash
pip install -r requirements.txt
# 또는 특정 패키지만
pip install xxx

제 경험상 가상환경이 꼬인 경우가 많아서, 아예 새로 만드는 게 빠를 때도 있어요:

 
 
bash
python -m venv venv_new
venv_new\Scripts\activate
pip install -r requirements.txt
```

### ❌ Error: "Model not found"

**원인:** 모델 경로 설정 오류

**해결법:**

1. `ComfyUI/models/` 폴더 구조 확인:
```
models/
├── checkpoints/
├── vae/
├── loras/
├── controlnet/
└── upscale_models/
  1. 모델이 정확한 위치에 있는지 확인
  2. 파일명에 한글이나 특수문자 있으면 제거

저는 모델명을 다 영문으로 통일해서 관리해요. 한글 파일명 때문에 오류 난 적이 몇 번 있거든요.

❌ Error: "Workflow execution failed"

원인: 노드 연결 오류, 파라미터 값 이상

해결법:

  1. 노드 연결 다시 확인: 입력/출력 타입 맞는지
  2. 기본값으로 초기화: 파라미터를 다시 설정
  3. 로그 확인: 콘솔에 뭐라고 나오는지 읽어보기

제 팁: 복잡한 워크플로우는 작은 단위로 나눠서 테스트해보세요!

❌ Error: "CUDA driver version is insufficient"

원인: NVIDIA 드라이버가 오래됨

해결법:

  1. NVIDIA 공식 사이트에서 최신 드라이버 다운로드
  2. 기존 드라이버 완전 삭제 (DDU 사용 권장)
  3. 새 드라이버 설치
  4. 재부팅

이거 매번 깜빡하는데, PyTorch 버전과 CUDA 버전도 맞춰야 해요!

 
 
bash
# PyTorch가 인식하는 CUDA 버전 확인
python -c "import torch; print(torch.version.cuda)"

# 시스템 CUDA 버전 확인
nvcc --version

두 버전이 다르면 PyTorch를 재설치해야 할 수도 있어요.


7️⃣ 오류 예방 체크리스트

제가 매번 확인하는 것들이에요. 이것만 지켜도 오류가 80% 줄어들더라고요!

✅ ComfyUI 실행 전

  • 다른 GPU 사용 프로그램 종료했나? (크롬, 게임 등)
  • 이전 Python 프로세스 남아있지 않나? (작업 관리자 확인)
  • 최신 Git Pull 받았나? (git pull origin main)
  • 커스텀 노드 업데이트 확인 (ComfyUI Manager)
  • VRAM 사용량 여유 있나? (nvidia-smi로 확인)

✅ 워크플로우 작업 시

  • 모델 크기 확인 (SDXL인지 SD 1.5인지)
  • 배치 사이즈 1부터 시작
  • 이미지 해상도 너무 크지 않나? (1024x1024 이하 추천)
  • LoRA 3개 이하로 사용 (많으면 메모리 부족)
  • 샘플링 스텝 30~50 정도가 적당 (100 이상은 과함)

✅ 오류 발생 시

  • 정확한 오류 메시지 복사해두기
  • 콘솔 로그 스크린샷
  • 사용한 워크플로우 JSON 저장
  • GPU 상태 확인 (nvidia-smi)
  • 재시작 전에 다른 프로그램도 저장

✅ 정기 유지보수 (주 1회)

  • ComfyUI 업데이트 확인
  • 커스텀 노드 업데이트
  • PyTorch 캐시 정리 (~/.cache/torch 삭제)
  • 안 쓰는 모델 파일 정리 (용량 확보)
  • 백업 (워크플로우 JSON, 설정 파일)

8️⃣ 실전 FAQ

제가 커뮤니티에서 자주 본 질문들 모아봤어요!

Q1: "Out of Memory인데 VRAM은 50%밖에 안 쓰고 있어요?"

A: GPU 메모리는 VRAM시스템 RAM 두 가지예요. VRAM은 여유인데 RAM이 부족한 경우가 있어요.

해결법:

  • 작업 관리자에서 시스템 RAM 사용량 확인
  • 크롬 탭 줄이기 (메모리 먹는 하마...)
  • 가상 메모리 늘리기 (위에서 설명한 방법)

Q2: "RTX 4060 8GB로 SDXL 돌릴 수 있나요?"

A: 네, 가능은 한데 설정이 중요해요!

 
 
batch
python main.py --lowvram --force-fp16 --preview-method none

이렇게 실행하면 돌아가긴 해요. 근데 솔직히 배치 사이즈 1만 가능하고, ControlNet 같은 거 쓰면 빡빡해요.

제 추천:

  • SDXL 대신 SD 1.5 모델 사용 (결과물도 좋아요)
  • Pruned + FP16 모델 사용
  • 클라우드 GPU 고려 (RunPod 시간당 $0.3~)

Q3: "ComfyUI 느려졌어요. 처음에는 빨랐는데..."

A: 캐시가 쌓이거나, 커스텀 노드가 많아져서 그래요.

해결법:

  1. 캐시 정리:
 
 
bash
# Windows
rmdir /s /q "%USERPROFILE%\.cache\torch"

# Linux/Mac
rm -rf ~/.cache/torch/
  1. 안 쓰는 커스텀 노드 제거:
    • ComfyUI/custom_nodes/ 폴더에서 삭제
    • 또는 ComfyUI Manager에서 Disable
  2. Python 환경 재생성:
 
 
bash
# 기존 가상환경 삭제
rm -rf venv

# 새로 생성
python -m venv venv
venv\Scripts\activate
pip install -r requirements.txt

Q4: "업스케일러 쓰면 무조건 메모리 오류나요"

A: 4K 이상으로 업스케일하면 메모리 폭발하죠 😭

해결법:

  • 타일 업스케일 사용: Ultimate SD Upscale 커스텀 노드
  • 단계별 업스케일: 1024 → 2048 → 4096 (한 번에 안 하고)
  • 외부 프로그램: Topaz Gigapixel AI 같은 전용 툴 사용

저는 보통 ComfyUI에서 2048까지만 하고, 더 큰 건 Photoshop에서 해요.

Q5: "워크플로우가 중간에 멈춰요"

A: 이거 진짜 짜증나죠... 원인이 여러 가지예요.

체크할 것들:

  1. 타임아웃 설정:
    • ComfyUI/config.yaml에서 timeout 값 늘리기
  2. 노드 호환성:
    • 커스텀 노드 버전이 ComfyUI와 맞지 않을 수 있어요
  3. 파일 경로:
    • 너무 긴 경로, 한글 포함, 특수문자 확인
  4. 백그라운드 프로세스:
    • 윈도우 업데이트, 백신 검사 등 확인

Q6: "LoRA가 적용 안 돼요"

A: LoRA 강도 문제거나, 모델 호환성 문제일 수 있어요.

체크리스트:

  • LoRA 강도: 0.5~1.0 사이가 적당 (너무 낮으면 효과 없음)
  • 베이스 모델 맞는지: SDXL용 LoRA는 SDXL 모델에만!
  • 파일 손상: 다시 다운로드해보기
  • 메타데이터 확인: Civitai에서 사용법 읽어보기

Q7: "ComfyUI 업데이트 후 워크플로우 안 돌아가요"

A: 업데이트하면 노드 이름이나 파라미터가 바뀔 수 있어요.

대처법:

  1. 이전 버전으로 롤백:
 
 
bash
git log --oneline  # 커밋 히스토리 확인
git checkout [이전 커밋 해시]
  1. 워크플로우 수정:
    • 빨간색 노드 찾기 (오류 난 것)
    • 마우스 우클릭 → "Fix node"
    • 안 되면 해당 노드 삭제하고 다시 추가
  2. 커스텀 노드도 업데이트:
    • ComfyUI Manager → "Update All"

저는 중요한 작업 전에는 업데이트 안 해요. 급한 불 끄고 나서 여유 있을 때 업데이트!


💡 제 개인적인 ComfyUI 메모리 관리 루틴

1년 동안 시행착오 겪으면서 정립한 제 작업 방식이에요:

🌄 작업 시작할 때:

  1. 컴퓨터 재부팅 (일주일에 한 번은 꼭!)
  2. GPU 프로세스 깨끗한지 확인
  3. nvidia-smi로 VRAM 상태 체크
  4. ComfyUI 실행 with --lowvram --force-fp16
  5. 간단한 워크플로우로 테스트 (SD 1.5 + 샘플링 20스텝)

🎨 작업 중:

  1. 배치 사이즈 1로 시작, 괜찮으면 2로 증가
  2. 30분마다 ComfyUI 재시작 (습관처럼)
  3. 중간 결과물 자주 저장 (나중에 어디서부터 오류 났는지 알기 위해)
  4. 복잡한 워크플로우는 단계별로 실행
  5. LoRA는 2개까지만 (욕심부리지 않기)

🌙 작업 끝나고:

  1. 생성된 이미지들 백업
  2. 워크플로우 JSON 저장 (성공한 것만)
  3. Python 프로세스 완전 종료
  4. PyTorch 캐시 정리 (일주일에 한 번)
  5. 작업 노트 작성 (뭐가 잘됐는지, 안 됐는지)

📅 정기 유지보수 (매주 일요일):

  • ComfyUI Git Pull
  • 커스텀 노드 업데이트
  • 안 쓰는 모델 정리
  • 드라이버 업데이트 확인
  • 전체 시스템 청소 (먼지 제거도!)