ComfyUI 오류 해결 - Out of Memory
안녕하세요! ComfyUI 쓴 지 이제 1년 정도 됐는데, 처음에 정말... GPU 메모리 부족 오류 때문에 미칠 뻔했거든요 😭
특히 Stable Diffusion 모델 여러 개 돌리다가 "Out of Memory" 뜨면서 컴퓨터가 멈추는 거 보면 진짜 막막하더라고요. 그래도 이것저것 삽질하면서 나름대로 해결 방법들을 찾았어요!
완전 전문가는 아니지만, 제가 겪었던 빡침 포인트들과 실제로 효과 본 해결법들을 정리해봤습니다. 혹시 저처럼 ComfyUI 오류 때문에 고생하시는 분들께 도움이 되면 좋겠어요 🙏
📋 목차
- Out of Memory 오류 완벽 해결법 ⭐ (가장 중요!)
- GPU 메모리 초기화 방법 (Windows/Linux)
- 근본적인 메모리 관리 전략
- 기타 자주 묻는 오류들
- 오류 예방 체크리스트
- 실전 FAQ
1. Out of Memory 오류 완벽 해결법 ⭐
자, 이제 본론입니다! 이 부분 때문에 여기 오신 분들 많으실 거예요. 제가 시도해본 모든 방법들을 난이도 순서대로 정리했어요.
🎯 오류 발생 원인 (제가 이해한 바로는)
ComfyUI는 Stable Diffusion 모델들을 GPU VRAM에 올려서 작동하는데요:
- 모델이 너무 큼: SDXL 모델 하나만 6~7GB 먹어요
- 워크플로우가 복잡함: ControlNet, LoRA 여러 개 동시 사용
- 배치 사이즈가 큼: 한 번에 여러 장 생성하려고 할 때
- 메모리 정리 안 됨: 이전 작업의 메모리가 안 비워진 상태
처음에 저는 8GB VRAM 그래픽카드로 SDXL 돌리려다가... 완전 멘붕이었어요 😅
💡 해결 방법 1: 즉시 적용 가능한 설정 (난이도: ⭐)
ComfyUI 실행 시 명령줄 인자를 추가하는 방법이에요. 이게 가장 빠르고 효과적이더라고요!
Windows 사용자:
ComfyUI 폴더에 있는 run_nvidia_gpu.bat 파일을 메모장으로 열어서 수정해주세요.
@echo off
cd /d "%~dp0"
:: 기본 실행 명령어
python main.py --lowvram --preview-method auto
pause
주요 옵션 설명:
| --lowvram | VRAM 4~8GB에 최적화 | RTX 3060 12GB에서도 이거 켜니까 안정적이더라고요 |
| --medvram | VRAM 6~10GB에 적합 | 중간 성능 그래픽카드 쓰시면 이거요! |
| --novram | VRAM 거의 안 쓰고 RAM 사용 | 엄청 느려지지만 오류는 안 나요 |
| --gpu-only | VAE를 제외한 모든 걸 GPU에 | VRAM 여유 있으면 더 빨라요 |
| --highvram | 16GB 이상에서 최대 성능 | RTX 4090 부러워요... |
제가 실제로 쓰는 조합 (RTX 3060 12GB 기준):
python main.py --lowvram --preview-method auto --force-fp16
--force-fp16을 추가하니까 메모리 사용량이 확 줄더라고요! (정밀도는 약간 떨어지지만 눈에 잘 안 보여요)
Linux/Mac 사용자:
터미널에서 실행할 때 이렇게 해주세요:
python main.py --lowvram --preview-method auto
💡 해결 방법 2: GPU 메모리 즉시 초기화 (난이도: ⭐⭐)
작업 중에 메모리가 부족해지면, GPU 프로세스를 강제 종료하고 다시 시작하는 방법이에요.
Windows 방법:
방법 A: 안전한 방법 (추천!)
- Ctrl + C로 ComfyUI 터미널 종료
- 작업 관리자 (Ctrl + Shift + Esc) 열기
- "세부 정보" 탭에서 python.exe 프로세스 찾기
- 마우스 우클릭 → "작업 끝내기"
- ComfyUI 재시작
방법 B: 명령어로 한 번에 (고급)
관리자 권한으로 명령 프롬프트(CMD) 실행 후:
# Python 프로세스만 종료 (더 안전해요)
TASKKILL /F /IM python.exe
# 또는 특정 PID만 종료
TASKKILL /F /PID [프로세스ID]
⚠️ 주의사항: 사용자가 제시한 TASKKILL /F /FI "PID ge 1000" 명령어는 PID 1000 이상의 모든 프로세스를 강제 종료하는 거라 정말 위험해요!
이거 잘못하면 시스템 프로세스까지 죽여서 컴퓨터가 먹통될 수 있거든요. 절대 사용하지 마세요! 😱
제가 만든 안전한 배치 스크립트:
reset_gpu.bat 파일 만들어서 사용하세요:
@echo off
echo ComfyUI GPU 메모리 초기화 중...
:: Python 프로세스만 종료
TASKKILL /F /IM python.exe /T 2>nul
:: NVIDIA GPU 드라이버 재시작 (선택사항)
:: nvidia-smi --gpu-reset
echo 완료! 잠시 후 ComfyUI를 다시 실행하세요.
pause
이렇게 하면 Python 관련 프로세스만 안전하게 종료돼요!
Linux 방법:
# Python 프로세스 확인
ps aux | grep python
# 특정 PID 종료
kill -9 [PID]
# 또는 모든 python 프로세스 종료
pkill -9 python
💡 해결 방법 3: ComfyUI 내부 설정 최적화 (난이도: ⭐⭐⭐)
ComfyUI 인터페이스 내에서도 메모리를 아끼는 설정들이 있어요!
1) VAE를 CPU로 옮기기
워크플로우에서 "VAEDecode" 노드를 선택하고:
- 마우스 우클릭
- "Run on CPU" 체크
VAE는 생각보다 VRAM을 많이 먹는데, CPU로 돌려도 크게 느려지지 않더라고요.
2) 프리뷰 비활성화
이미지 생성 중간 과정을 보여주는 프리뷰도 메모리를 꽤 먹어요:
설정 파일 수정: ComfyUI/extra_model_paths.yaml.example 파일을 복사해서 extra_model_paths.yaml로 만들고:
preview:
method: none # 프리뷰 끄기
3) 배치 사이즈 줄이기
한 번에 여러 장 생성하려고 하면 당연히 메모리 부족하겠죠?
KSampler 노드에서:
- batch_size: 1로 설정 (처음엔 이것부터!)
- 필요하면 나중에 2, 4로 늘려보세요
💡 해결 방법 4: 모델 최적화 (난이도: ⭐⭐⭐⭐)
1) Pruned 모델 사용하기
"Pruned" 모델은 불필요한 데이터를 제거해서 용량이 작은 버전이에요.
- SDXL Base: 6.9GB → Pruned: 6.5GB
- SD 1.5: 7.7GB → Pruned: 4.2GB
Civitai에서 다운로드할 때 "Pruned" 버전 찾아보세요!
2) FP16 모델 사용
FP32 (4byte) 대신 FP16 (2byte) 정밀도로 저장된 모델을 쓰면 메모리가 절반으로 줄어요.
변환 방법:
# model_converter.py
import torch
from safetensors.torch import load_file, save_file
# 모델 불러오기
model = load_file("original_model.safetensors")
# FP16으로 변환
model_fp16 = {k: v.half() for k, v in model.items()}
# 저장
save_file(model_fp16, "model_fp16.safetensors")
솔직히 말하면, 저는 귀찮아서 이미 변환된 거 다운받아 써요 😅
💡 해결 방법 5: 시스템 레벨 최적화 (난이도: ⭐⭐⭐⭐⭐)
1) 가상 메모리(페이징 파일) 늘리기
VRAM이 부족하면 시스템 RAM으로 넘어가는데, 이것도 부족하면 디스크를 사용해요.
Windows 설정:
- "시스템 속성" → "고급" 탭
- "성능" → "설정" → "고급"
- "가상 메모리" → "변경"
- "자동으로 관리" 체크 해제
- 초기 크기: 16384 MB (16GB)
- 최대 크기: 32768 MB (32GB)
- "설정" → "확인" → 재부팅
근데 솔직히 이건 임시방편이고, 진짜 느려요... SSD가 HDD보다는 나아요.
2) 다른 GPU 사용 프로그램 종료
작업 관리자에서 확인해보세요:
- 크롬 (하드웨어 가속 끄기)
- 디스코드 (하드웨어 가속 끄기)
- OBS Studio
- 게임 런처들
저는 ComfyUI 쓸 때는 다른 프로그램 다 끄고 해요. 그게 제일 확실하더라고요!
2. GPU 메모리 초기화 방법 총정리
🪟 Windows 사용자용
방법 1: 배치 스크립트 활용 (제가 매일 쓰는 방법!)
comfyui_restart.bat 파일 만들기:
@echo off
echo ================================================
echo ComfyUI 완전 초기화 스크립트
echo ================================================
echo.
:: 1단계: Python 프로세스 종료
echo [1/4] Python 프로세스 종료 중...
TASKKILL /F /IM python.exe /T 2>nul
if %errorlevel% equ 0 (
echo ✓ Python 프로세스 종료 완료
) else (
echo ✓ 실행 중인 Python 없음
)
timeout /t 2 /nobreak >nul
:: 2단계: PyTorch 캐시 삭제 (선택사항)
echo.
echo [2/4] PyTorch 캐시 정리 중...
rmdir /s /q "%USERPROFILE%\.cache\torch" 2>nul
echo ✓ 캐시 정리 완료
timeout /t 1 /nobreak >nul
:: 3단계: GPU 상태 확인
echo.
echo [3/4] GPU 상태 확인 중...
nvidia-smi
timeout /t 3 /nobreak >nul
:: 4단계: ComfyUI 재시작
echo.
echo [4/4] ComfyUI 재시작 중...
cd /d "%~dp0"
start "" cmd /k "python main.py --lowvram --preview-method auto"
echo.
echo ================================================
echo 초기화 완료! ComfyUI가 새 창에서 실행됩니다.
echo ================================================
pause
이거 바탕화면에 바로가기 만들어두면 진짜 편해요!
방법 2: PowerShell 스크립트 (좀 더 고급)
Reset-ComfyUI.ps1:
# 관리자 권한 확인
if (-NOT ([Security.Principal.WindowsPrincipal][Security.Principal.WindowsIdentity]::GetCurrent()).IsInRole([Security.Principal.WindowsBuiltInRole] "Administrator")) {
Write-Warning "관리자 권한으로 실행하세요!"
Start-Process powershell.exe "-File `"$PSCommandPath`"" -Verb RunAs
exit
}
Write-Host "=== ComfyUI GPU 메모리 초기화 ===" -ForegroundColor Cyan
# Python 프로세스 종료
Write-Host "`n[1/3] Python 프로세스 종료..." -ForegroundColor Yellow
Get-Process python -ErrorAction SilentlyContinue | Stop-Process -Force
Start-Sleep -Seconds 2
Write-Host "✓ 완료" -ForegroundColor Green
# PyTorch 캐시 정리
Write-Host "`n[2/3] 캐시 정리..." -ForegroundColor Yellow
$cachePath = "$env:USERPROFILE\.cache\torch"
if (Test-Path $cachePath) {
Remove-Item $cachePath -Recurse -Force
Write-Host "✓ 캐시 삭제 완료" -ForegroundColor Green
} else {
Write-Host "✓ 캐시 없음" -ForegroundColor Green
}
# GPU 메모리 상태 확인
Write-Host "`n[3/3] GPU 상태 확인..." -ForegroundColor Yellow
nvidia-smi --query-gpu=memory.used,memory.total --format=csv
Write-Host "`n초기화 완료!" -ForegroundColor Green
pause
PowerShell은 배치보다 에러 처리가 깔끔해서 저는 이걸 더 선호해요!
🐧 Linux/Mac 사용자용
Bash 스크립트:
reset_comfyui.sh:
#!/bin/bash
echo "=== ComfyUI GPU 메모리 초기화 ==="
# Python 프로세스 종료
echo -e "\n[1/3] Python 프로세스 종료 중..."
pkill -9 python
sleep 2
echo "✓ 완료"
# PyTorch 캐시 정리
echo -e "\n[2/3] 캐시 정리 중..."
rm -rf ~/.cache/torch/
echo "✓ 캐시 삭제 완료"
# GPU 상태 확인
echo -e "\n[3/3] GPU 상태:"
nvidia-smi --query-gpu=memory.used,memory.total --format=csv
echo -e "\n초기화 완료!"
실행 권한 부여:
chmod +x reset_comfyui.sh
./reset_comfyui.sh
🔄 자동화 옵션: Watchdog 스크립트
메모리 사용량을 모니터링하다가 80% 넘으면 자동으로 초기화하는 스크립트예요.
memory_watchdog.py:
import subprocess
import time
import psutil
THRESHOLD = 80 # 80% 이상이면 재시작
def get_gpu_memory():
"""GPU 메모리 사용률 확인"""
try:
result = subprocess.run(
['nvidia-smi', '--query-gpu=memory.used,memory.total', '--format=csv,noheader,nounits'],
capture_output=True, text=True
)
used, total = map(float, result.stdout.strip().split(','))
return (used / total) * 100
except:
return 0
def restart_comfyui():
"""ComfyUI 재시작"""
print("⚠️ GPU 메모리 임계값 초과! 재시작 중...")
# Python 프로세스 종료
for proc in psutil.process_iter(['name']):
if 'python' in proc.info['name'].lower():
proc.kill()
time.sleep(3)
# ComfyUI 재시작
subprocess.Popen(['python', 'main.py', '--lowvram'])
print("✓ 재시작 완료")
# 메인 루프
while True:
memory_usage = get_gpu_memory()
print(f"현재 GPU 메모리 사용률: {memory_usage:.1f}%")
if memory_usage > THRESHOLD:
restart_comfyui()
time.sleep(60) # 1분마다 체크
```
근데 솔직히 이건 좀 오버스펙인 것 같아요. 수동으로 재시작하는 게 더 나을 때도 많아요 😅
---
## 5️⃣ 근본적인 메모리 관리 전략
오류가 날 때마다 재시작하는 것보다, **애초에 오류가 안 나게** 하는 게 최고죠!
### 🎯 워크플로우 설계 팁
#### 1) 순차적으로 노드 실행하기
여러 노드를 한 번에 돌리지 말고, **Queue Prompt**를 눌러서 하나씩 실행하세요.
```
X 잘못된 예:
ControlNet + LoRA 5개 + Upscale 동시 실행 → 폭발💥
O 올바른 예:
Base 이미지 생성 → 저장 → ControlNet 적용 → 저장 → Upscale
2) 체크포인트 저장 활용
중간 결과물을 Save Image 노드로 저장하고, 다음 단계는 새 워크플로우에서 불러오기.
3) 배치 처리 자제
한 번에 10장 생성하려다가 오류나는 것보다, 2장씩 5번 돌리는 게 안전해요.
📊 모델 관리 전략
1) 자주 쓰는 모델만 ComfyUI 폴더에
저는 모델을 별도 드라이브에 보관하고, 쓸 때만 심볼릭 링크로 연결해요:
Windows:
mklink /D "ComfyUI\models\checkpoints\SDXL" "D:\AI_Models\SDXL"
Linux:
ln -s /mnt/storage/AI_Models/SDXL ~/ComfyUI/models/checkpoints/SDXL
2) 모델 언로드 설정
ComfyUI/extra_model_paths.yaml:
model_management:
model_unload_policy: "aggressive" # 적극적으로 언로드
model_cache_size: 1 # 한 번에 1개 모델만 메모리에
이렇게 하면 모델 전환 시 자동으로 이전 모델이 메모리에서 해제돼요.
💾 하드웨어 업그레이드 고려사항
솔직히 말하면... 그래픽카드 업그레이드가 가장 확실한 해결책이에요.
제 경험상 권장 VRAM:
| SD 1.5 기본 | 4GB | 8GB | 12GB |
| SDXL 기본 | 8GB | 12GB | 16GB |
| SDXL + ControlNet | 12GB | 16GB | 24GB |
| 프로페셔널 작업 | 16GB | 24GB | 40GB+ |
근데 그래픽카드가 너무 비싸서... 😭 저도 3060 12GB 쓰면서 버티고 있어요.
대안:
- 중고 그래픽카드: RTX 3090 중고 (24GB)
- 클라우드 GPU: RunPod, Vast.ai (시간당 과금)
- 구글 Colab Pro: 월 $10로 V100 사용 가능
6️⃣ 기타 자주 묻는 오류들
❌ Error: "No module named 'xxx'"
원인: Python 패키지 누락
해결법:
pip install -r requirements.txt
# 또는 특정 패키지만
pip install xxx
제 경험상 가상환경이 꼬인 경우가 많아서, 아예 새로 만드는 게 빠를 때도 있어요:
python -m venv venv_new
venv_new\Scripts\activate
pip install -r requirements.txt
```
### ❌ Error: "Model not found"
**원인:** 모델 경로 설정 오류
**해결법:**
1. `ComfyUI/models/` 폴더 구조 확인:
```
models/
├── checkpoints/
├── vae/
├── loras/
├── controlnet/
└── upscale_models/
- 모델이 정확한 위치에 있는지 확인
- 파일명에 한글이나 특수문자 있으면 제거
저는 모델명을 다 영문으로 통일해서 관리해요. 한글 파일명 때문에 오류 난 적이 몇 번 있거든요.
❌ Error: "Workflow execution failed"
원인: 노드 연결 오류, 파라미터 값 이상
해결법:
- 노드 연결 다시 확인: 입력/출력 타입 맞는지
- 기본값으로 초기화: 파라미터를 다시 설정
- 로그 확인: 콘솔에 뭐라고 나오는지 읽어보기
제 팁: 복잡한 워크플로우는 작은 단위로 나눠서 테스트해보세요!
❌ Error: "CUDA driver version is insufficient"
원인: NVIDIA 드라이버가 오래됨
해결법:
- NVIDIA 공식 사이트에서 최신 드라이버 다운로드
- 기존 드라이버 완전 삭제 (DDU 사용 권장)
- 새 드라이버 설치
- 재부팅
이거 매번 깜빡하는데, PyTorch 버전과 CUDA 버전도 맞춰야 해요!
# PyTorch가 인식하는 CUDA 버전 확인
python -c "import torch; print(torch.version.cuda)"
# 시스템 CUDA 버전 확인
nvcc --version
두 버전이 다르면 PyTorch를 재설치해야 할 수도 있어요.
7️⃣ 오류 예방 체크리스트
제가 매번 확인하는 것들이에요. 이것만 지켜도 오류가 80% 줄어들더라고요!
✅ ComfyUI 실행 전
- 다른 GPU 사용 프로그램 종료했나? (크롬, 게임 등)
- 이전 Python 프로세스 남아있지 않나? (작업 관리자 확인)
- 최신 Git Pull 받았나? (git pull origin main)
- 커스텀 노드 업데이트 확인 (ComfyUI Manager)
- VRAM 사용량 여유 있나? (nvidia-smi로 확인)
✅ 워크플로우 작업 시
- 모델 크기 확인 (SDXL인지 SD 1.5인지)
- 배치 사이즈 1부터 시작
- 이미지 해상도 너무 크지 않나? (1024x1024 이하 추천)
- LoRA 3개 이하로 사용 (많으면 메모리 부족)
- 샘플링 스텝 30~50 정도가 적당 (100 이상은 과함)
✅ 오류 발생 시
- 정확한 오류 메시지 복사해두기
- 콘솔 로그 스크린샷
- 사용한 워크플로우 JSON 저장
- GPU 상태 확인 (nvidia-smi)
- 재시작 전에 다른 프로그램도 저장
✅ 정기 유지보수 (주 1회)
- ComfyUI 업데이트 확인
- 커스텀 노드 업데이트
- PyTorch 캐시 정리 (~/.cache/torch 삭제)
- 안 쓰는 모델 파일 정리 (용량 확보)
- 백업 (워크플로우 JSON, 설정 파일)
8️⃣ 실전 FAQ
제가 커뮤니티에서 자주 본 질문들 모아봤어요!
Q1: "Out of Memory인데 VRAM은 50%밖에 안 쓰고 있어요?"
A: GPU 메모리는 VRAM과 시스템 RAM 두 가지예요. VRAM은 여유인데 RAM이 부족한 경우가 있어요.
해결법:
- 작업 관리자에서 시스템 RAM 사용량 확인
- 크롬 탭 줄이기 (메모리 먹는 하마...)
- 가상 메모리 늘리기 (위에서 설명한 방법)
Q2: "RTX 4060 8GB로 SDXL 돌릴 수 있나요?"
A: 네, 가능은 한데 설정이 중요해요!
python main.py --lowvram --force-fp16 --preview-method none
이렇게 실행하면 돌아가긴 해요. 근데 솔직히 배치 사이즈 1만 가능하고, ControlNet 같은 거 쓰면 빡빡해요.
제 추천:
- SDXL 대신 SD 1.5 모델 사용 (결과물도 좋아요)
- Pruned + FP16 모델 사용
- 클라우드 GPU 고려 (RunPod 시간당 $0.3~)
Q3: "ComfyUI 느려졌어요. 처음에는 빨랐는데..."
A: 캐시가 쌓이거나, 커스텀 노드가 많아져서 그래요.
해결법:
- 캐시 정리:
# Windows
rmdir /s /q "%USERPROFILE%\.cache\torch"
# Linux/Mac
rm -rf ~/.cache/torch/
- 안 쓰는 커스텀 노드 제거:
- ComfyUI/custom_nodes/ 폴더에서 삭제
- 또는 ComfyUI Manager에서 Disable
- Python 환경 재생성:
# 기존 가상환경 삭제
rm -rf venv
# 새로 생성
python -m venv venv
venv\Scripts\activate
pip install -r requirements.txt
Q4: "업스케일러 쓰면 무조건 메모리 오류나요"
A: 4K 이상으로 업스케일하면 메모리 폭발하죠 😭
해결법:
- 타일 업스케일 사용: Ultimate SD Upscale 커스텀 노드
- 단계별 업스케일: 1024 → 2048 → 4096 (한 번에 안 하고)
- 외부 프로그램: Topaz Gigapixel AI 같은 전용 툴 사용
저는 보통 ComfyUI에서 2048까지만 하고, 더 큰 건 Photoshop에서 해요.
Q5: "워크플로우가 중간에 멈춰요"
A: 이거 진짜 짜증나죠... 원인이 여러 가지예요.
체크할 것들:
- 타임아웃 설정:
- ComfyUI/config.yaml에서 timeout 값 늘리기
- 노드 호환성:
- 커스텀 노드 버전이 ComfyUI와 맞지 않을 수 있어요
- 파일 경로:
- 너무 긴 경로, 한글 포함, 특수문자 확인
- 백그라운드 프로세스:
- 윈도우 업데이트, 백신 검사 등 확인
Q6: "LoRA가 적용 안 돼요"
A: LoRA 강도 문제거나, 모델 호환성 문제일 수 있어요.
체크리스트:
- LoRA 강도: 0.5~1.0 사이가 적당 (너무 낮으면 효과 없음)
- 베이스 모델 맞는지: SDXL용 LoRA는 SDXL 모델에만!
- 파일 손상: 다시 다운로드해보기
- 메타데이터 확인: Civitai에서 사용법 읽어보기
Q7: "ComfyUI 업데이트 후 워크플로우 안 돌아가요"
A: 업데이트하면 노드 이름이나 파라미터가 바뀔 수 있어요.
대처법:
- 이전 버전으로 롤백:
git log --oneline # 커밋 히스토리 확인
git checkout [이전 커밋 해시]
- 워크플로우 수정:
- 빨간색 노드 찾기 (오류 난 것)
- 마우스 우클릭 → "Fix node"
- 안 되면 해당 노드 삭제하고 다시 추가
- 커스텀 노드도 업데이트:
- ComfyUI Manager → "Update All"
저는 중요한 작업 전에는 업데이트 안 해요. 급한 불 끄고 나서 여유 있을 때 업데이트!
💡 제 개인적인 ComfyUI 메모리 관리 루틴
1년 동안 시행착오 겪으면서 정립한 제 작업 방식이에요:
🌄 작업 시작할 때:
- 컴퓨터 재부팅 (일주일에 한 번은 꼭!)
- GPU 프로세스 깨끗한지 확인
- nvidia-smi로 VRAM 상태 체크
- ComfyUI 실행 with --lowvram --force-fp16
- 간단한 워크플로우로 테스트 (SD 1.5 + 샘플링 20스텝)
🎨 작업 중:
- 배치 사이즈 1로 시작, 괜찮으면 2로 증가
- 30분마다 ComfyUI 재시작 (습관처럼)
- 중간 결과물 자주 저장 (나중에 어디서부터 오류 났는지 알기 위해)
- 복잡한 워크플로우는 단계별로 실행
- LoRA는 2개까지만 (욕심부리지 않기)
🌙 작업 끝나고:
- 생성된 이미지들 백업
- 워크플로우 JSON 저장 (성공한 것만)
- Python 프로세스 완전 종료
- PyTorch 캐시 정리 (일주일에 한 번)
- 작업 노트 작성 (뭐가 잘됐는지, 안 됐는지)
📅 정기 유지보수 (매주 일요일):
- ComfyUI Git Pull
- 커스텀 노드 업데이트
- 안 쓰는 모델 정리
- 드라이버 업데이트 확인
- 전체 시스템 청소 (먼지 제거도!)