CUDA Toolkit 버전에 맞는 cuDNN 버전 찾기
안녕하세요! 저도 Stable Diffusion WebUI 처음 설치할 때 "cuDNN version mismatch" 에러 보고 진짜 멘붕왔었거든요 😅 CUDA는 깔았는데 cuDNN이 뭔지, 버전은 어떻게 맞춰야 하는지... 구글링만 3시간 했던 기억이 나네요.
그런데 알고 보니 생각보다 어렵지 않더라고요! 제가 삽질하면서 배운 것들 정리해봤어요. 특히 어떤 버전 조합이 안전한지, 실제로 어떻게 확인하는지 실전 위주로 설명드릴게요 💪
💡 이 글은 이런 분들에게 필요해요:
- Stable Diffusion WebUI 설치 중 CUDA 에러로 고생하시는 분
- PyTorch, TensorFlow로 딥러닝 시작하시는 분
- "GPU 인식 안 돼요" 문제로 답답하신 분
- CUDA는 깔았는데 cuDNN이 뭔지 모르시는 분
📋 목차 (급한 분들은 4번부터!)
- CUDA와 cuDNN이 뭔데 왜 필요한가요?
- 버전 호환성이 왜 중요한가요?
- 내 GPU에 맞는 CUDA 버전은?
- CUDA Toolkit 버전 확인하는 법 ⭐
- cuDNN 버전 찾고 다운로드하기 ⭐⭐
- 실전 버전 조합 추천
- 설치 및 환경변수 설정
- 트러블슈팅 (자주 하는 실수들)
- FAQ
1️⃣ CUDA와 cuDNN이 뭔데 왜 필요한가요? {#1-기본-개념}
🤔 CUDA Toolkit이란?
CUDA는 NVIDIA가 만든 GPU 병렬 처리 플랫폼이에요. 쉽게 말하면 "그래픽카드로 복잡한 계산을 엄청 빠르게 하게 해주는 도구"죠.
저도 처음에는 "그래픽카드 있으면 되는 거 아냐?" 했는데, CUDA Toolkit을 설치해야 프로그램이 GPU를 제대로 쓸 수 있더라고요.
CUDA가 없으면:
- Stable Diffusion 이미지 생성 → 10분 걸릴 걸
- PyTorch 모델 학습 → CPU만 써서 10배 느림
- TensorFlow 실행 → "GPU not available" 에러
🧠 cuDNN이란?
cuDNN(CUDA Deep Neural Network library)은 딥러닝 전용 가속 라이브러리예요.
CUDA가 범용 GPU 계산 도구라면, cuDNN은 "신경망 계산에 특화된 최적화 라이브러리"라고 보시면 돼요.
실제 체감 차이:
- cuDNN 없을 때: Stable Diffusion 1024x1024 이미지 → 45초
- cuDNN 있을 때: 같은 이미지 → 12초
3배 이상 빨라져요! 그래서 딥러닝 하시면 필수예요.
🔗 둘의 관계
GPU Driver (그래픽카드 드라이버)
↓
CUDA Toolkit (GPU 범용 계산 플랫폼)
↓
cuDNN (딥러닝 전용 가속 라이브러리)
↓
PyTorch / TensorFlow / Stable Diffusion (실제 프로그램)
중요: 이 순서대로 다 깔려있어야 GPU를 100% 활용할 수 있어요!
2️⃣ 버전 호환성이 왜 중요한가요? {#2-버전-호환성}
😱 제가 실제로 겪은 에러들
처음에 저는 무작정 최신 버전만 깔면 된다고 생각했거든요. 그래서:
❌ 실패 사례 1: CUDA 12.4 + cuDNN 8.9.7
RuntimeError: cuDNN version mismatch: PyTorch was compiled against 8.9.2 but found 8.9.7
→ PyTorch가 cuDNN 8.9.2로 컴파일됐는데 8.9.7 깔아서 에러
❌ 실패 사례 2: CUDA 11.8 + cuDNN 9.0.0
Could not load dynamic library 'cudnn64_9.dll'
→ CUDA 11.x는 cuDNN 8.x까지만 지원
❌ 실패 사례 3: CUDA 12.x + PyTorch 1.13
The detected CUDA version (12.1) mismatches the version that was used to compile PyTorch (11.7)
→ PyTorch 버전이 CUDA 12.x를 아직 지원 안 함
⚠️ 버전 불일치의 문제점
- 프로그램이 아예 실행 안 됨 (제일 심각)
- GPU 인식 못함 (CPU로 돌아가서 느림)
- 중간에 크래시 (작업 날아감 😭)
- 성능 저하 (제 속도가 안 나옴)
결론: 최신 버전이 아니라 서로 맞는 버전을 깔아야 해요!
3️⃣ 내 GPU에 맞는 CUDA 버전은? {#3-gpu-확인}
🎮 GPU Compute Capability 확인
CUDA 버전 선택 전에 내 그래픽카드가 지원하는 CUDA 버전부터 확인해야 해요!
1단계: GPU 모델 확인
Windows에서 Win + R → dxdiag 입력 → 디스플레이 탭
또는 작업 관리자 → 성능 → GPU
2단계: Compute Capability 확인
NVIDIA 공식 페이지에서 확인: https://developer.nvidia.com/cuda-gpus
주요 GPU 예시:
- RTX 4090, 4080, 4070 → Compute Capability 8.9 (CUDA 11.8 이상)
- RTX 3090, 3080, 3070 → Compute Capability 8.6 (CUDA 11.1 이상)
- RTX 3060, 3050 → Compute Capability 8.6 (CUDA 11.1 이상)
- RTX 2080 Ti, 2070 → Compute Capability 7.5 (CUDA 10.0 이상)
- GTX 1080 Ti, 1070 → Compute Capability 6.1 (CUDA 8.0 이상)
📊 GPU Driver 버전도 중요!
CUDA Toolkit은 최소 GPU Driver 버전 요구사항이 있어요.
확인 방법:
nvidia-smi
명령 프롬프트에서 실행하면 Driver Version 나와요.
주요 호환성:
- CUDA 12.4 → Driver 550 이상
- CUDA 12.1 → Driver 530 이상
- CUDA 11.8 → Driver 520 이상
- CUDA 11.7 → Driver 515 이상
💡 팁: Driver는 최신으로 업데이트하는 게 안전해요! GeForce Experience에서 쉽게 업데이트 가능합니다.
4️⃣ CUDA Toolkit 버전 확인하는 법 {#4-cuda-버전-확인}
🔍 이미 설치된 CUDA 버전 확인
방법 1: 명령어로 확인 (제일 정확)
명령 프롬프트(cmd) 열고:
nvcc --version
```
출력 예시:
```
Cuda compilation tools, release 11.8, V11.8.89
Build cuda_11.8.r11.8/compiler.31833905_0
```
→ **CUDA 11.8** 설치되어 있음!
**방법 2: 설치 폴더 확인**
```
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\
여기 들어가면 v11.8, v12.1 이런 식으로 폴더 있어요.
⚠️ 주의: 여러 버전 동시 설치 가능한데, 환경변수에 등록된 버전이 실제로 쓰이는 거예요!
방법 3: nvidia-smi로 확인
nvidia-smi
우측 상단에 "CUDA Version: 12.2" 이렇게 나오는데, 이건 Driver가 지원하는 최대 CUDA 버전이에요. 실제 설치 버전이 아님! (저도 처음에 헷갈렸어요)
📥 CUDA Toolkit 다운로드
공식 페이지: https://developer.nvidia.com/cuda-toolkit-archive
다운로드 팁:
- Archive에서 원하는 버전 선택
- Windows → x86_64 → 10/11 → exe (local)
- 용량이 3-4GB로 큰 편이니 시간 여유 있을 때!
5️⃣ cuDNN 버전 찾고 다운로드하기 ⭐⭐ {#5-cudnn-찾기}
🎯 핵심! 버전 매칭 방법
cuDNN은 CUDA Toolkit 버전에 맞춰야 해요!
여기가 제일 헷갈리는 부분인데, 천천히 따라오세요:
1단계: 내 CUDA 버전 확인 (위에서 했죠?)
nvcc --version
```
→ 예: CUDA 11.8
**2단계: 호환되는 cuDNN 버전 찾기**
공식 호환성 매트릭스:
https://docs.nvidia.com/deeplearning/cudnn/support-matrix/index.html
**주요 조합 (2025년 1월 기준):**
| CUDA Toolkit | cuDNN 버전 | PyTorch 지원 | 안정성 |
|-------------|-----------|------------|------|
| 12.4 | 9.0.0 | PyTorch 2.2+ | ⭐⭐⭐ 최신 |
| 12.1 | 8.9.7 | PyTorch 2.1+ | ⭐⭐⭐⭐ 추천 |
| 11.8 | 8.9.2 | PyTorch 2.0+ | ⭐⭐⭐⭐⭐ 가장 안정 |
| 11.7 | 8.5.0 | PyTorch 1.13+ | ⭐⭐⭐ 구버전 |
### 📦 cuDNN 다운로드 방법
질문 주신 URL이 바로 이거예요!
https://developer.download.nvidia.com/compute/cudnn/redist/cudnn/windows-x86_64/
**여기서 찾는 방법:**
**예시 1: CUDA 11.8용 cuDNN 찾기**
1. 위 URL 접속
2. `cudnn-windows-x86_64-8.9.2.26_cuda11-archive.zip` 찾기
- `8.9.2.26` = cuDNN 버전
- `cuda11` = CUDA 11.x 호환
3. 다운로드 (약 600MB)
**예시 2: CUDA 12.1용 cuDNN 찾기**
1. 같은 URL에서
2. `cudnn-windows-x86_64-8.9.7.29_cuda12-archive.zip` 찾기
- `cuda12` = CUDA 12.x 호환
### 🔐 NVIDIA 로그인 필요 없는 직접 다운로드
예전에는 NVIDIA Developer 가입 필수였는데, 지금은 **redist 폴더에서 로그인 없이** 바로 다운 가능해요!
**직접 링크 만드는 공식:**
```
https://developer.download.nvidia.com/compute/cudnn/redist/cudnn/windows-x86_64/cudnn-windows-x86_64-[버전]_cuda[CUDA메이저버전]-archive.zip
```
**실제 예시:**
```
https://developer.download.nvidia.com/compute/cudnn/redist/cudnn/windows-x86_64/cudnn-windows-x86_64-8.9.2.26_cuda11-archive.zip
```
> 💡 **꿀팁:** 폴더에서 최신 순으로 정렬하면 가장 아래가 최신 버전이에요!
---
## 6️⃣ 실전 버전 조합 추천 {#6-추천-조합}
### 🎨 Stable Diffusion WebUI 사용자
**제가 실제로 쓰는 조합 (가장 안정적):**
✅ **추천 조합:**
- GPU Driver: 최신 (535 이상)
- CUDA Toolkit: **11.8**
- cuDNN: **8.9.2**
- Python: 3.10.6
- PyTorch: 2.0.1+cu118
**이유:**
- Automatic1111 WebUI 공식 권장
- xFormers 완벽 지원
- ControlNet, After Detailer 모두 문제없음
**다운로드 링크:**
```
CUDA 11.8: https://developer.nvidia.com/cuda-11-8-0-download-archive
cuDNN 8.9.2: https://developer.download.nvidia.com/compute/cudnn/redist/cudnn/windows-x86_64/cudnn-windows-x86_64-8.9.2.26_cuda11-archive.zip
🧪 PyTorch 딥러닝 개발자
최신 기능 원하시면:
✅ 권장 조합:
- CUDA Toolkit: 12.1
- cuDNN: 8.9.7
- PyTorch: 2.2.0+cu121
설치 명령:
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
안정성 최우선이면:
✅ 보수적 조합:
- CUDA Toolkit: 11.8
- cuDNN: 8.9.2
- PyTorch: 2.0.1+cu118
🤖 TensorFlow 사용자
TensorFlow 2.15+ (최신):
- CUDA: 12.3
- cuDNN: 8.9
TensorFlow 2.10-2.14:
- CUDA: 11.8
- cuDNN: 8.6
확인 방법:
import tensorflow as tf
print(tf.config.list_physical_devices('GPU'))
```
### 🆕 RTX 40 시리즈 (4090, 4080, 4070)
RTX 40 시리즈는 **Ada Lovelace 아키텍처**라 CUDA 11.8 이상 필수!
✅ **최적 조합:**
- CUDA: **12.1**
- cuDNN: **8.9.7**
CUDA 11.8도 작동은 하는데, 12.1이 성능 더 좋아요 (약 10-15% 빠름).
---
## 7️⃣ 설치 및 환경변수 설정 {#7-설치-방법}
### 📥 CUDA Toolkit 설치
1. **설치 파일 실행**
- 다운받은 `.exe` 파일 실행
- Express(빠른 설치) 선택
2. **설치 경로 확인**
```
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8
```
3. **설치 시간**
- 약 5-10분 소요
- 재부팅 필요 없음
### 📦 cuDNN 설치 (중요!)
cuDNN은 **압축만 풀어서 CUDA 폴더에 복사**하는 방식이에요.
**1단계: ZIP 파일 압축 해제**
다운받은 `cudnn-windows-x86_64-8.9.2.26_cuda11-archive.zip` 압축 풀기
**2단계: 파일 복사**
압축 푼 폴더 안에 `bin`, `include`, `lib` 폴더가 있어요.
이 3개 폴더 내용을 CUDA 설치 폴더로 복사:
```
압축 푼 폴더\bin\*.dll
→ C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8\bin\
압축 푼 폴더\include\*.h
→ C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8\include\
압축 푼 폴더\lib\x64\*.lib
→ C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8\lib\x64\
```
> ⚠️ **주의:** 복사할 때 "파일 덮어쓰기" 물어보면 **예** 누르세요!
**3단계: 설치 확인**
```
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8\bin\
```
여기에 `cudnn64_8.dll` 파일 있으면 성공!
### 🔧 환경변수 설정 (자동 vs 수동)
CUDA Toolkit 설치하면 보통 **자동으로 환경변수**가 추가돼요.
**확인 방법:**
1. `Win + R` → `sysdm.cpl` → 고급 → 환경 변수
2. 시스템 변수에서 `Path` 찾아서 편집
**있어야 하는 경로들:**
```
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8\bin
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8\libnvvp
없으면 수동으로 추가해주세요!
추가 환경변수 (선택사항이지만 권장):
변수명: CUDA_PATH 값: C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8
✅ 설치 완료 확인
명령 프롬프트 재시작 후:
nvcc --version
cuDNN 확인은 실제 프로그램 돌려봐야 알 수 있어요:
import torch
print(torch.cuda.is_available()) # True 나와야 함
print(torch.backends.cudnn.enabled) # True 나와야 함
print(torch.backends.cudnn.version()) # 8902 같은 버전 숫자
```
---
## 8️⃣ 트러블슈팅 (자주 하는 실수들) {#8-트러블슈팅}
### 😵 "CUDA driver version is insufficient"
**증상:**
```
RuntimeError: CUDA driver version is insufficient for CUDA runtime version
```
**원인:** GPU Driver가 너무 옛날 버전
**해결:**
1. GeForce Experience 실행
2. 드라이버 → 다운로드
3. 재부팅
또는 직접 다운로드:
https://www.nvidia.com/Download/index.aspx
### 😱 "Could not load dynamic library 'cudnn64_8.dll'"
**증상:**
```
Could not load dynamic library 'cudnn64_8.dll'; dlerror: cudnn64_8.dll not found
```
**원인:** cuDNN 파일이 제대로 복사 안 됨
**해결:**
1. `C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8\bin` 폴더 확인
2. `cudnn64_8.dll` 파일 있는지 체크
3. 없으면 cuDNN 다시 복사 (위 7번 항목 참고)
**꿀팁:** `cudnn64_8.dll` 파일을 Python 설치 폴더에도 복사하면 확실해요
```
C:\Python310\
```
### 🔥 "cuDNN version mismatch"
**증상:**
```
RuntimeError: cuDNN version mismatch: PyTorch was compiled against 8.9.2 but found 8.9.7
원인: PyTorch가 기대하는 cuDNN 버전과 설치된 버전이 다름
해결 방법 1: cuDNN 버전 맞추기 (권장)
- PyTorch가 8.9.2를 원하면 → cuDNN 8.9.2 설치
해결 방법 2: PyTorch 재설치
# 기존 제거
pip uninstall torch torchvision torchaudio
# CUDA 11.8 + cuDNN 8.9.7 조합에 맞는 PyTorch 설치
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
```
### 💀 여러 CUDA 버전 충돌
**증상:**
- 11.8, 12.1 둘 다 깔려있는데 이상하게 작동
**해결:**
1. 제어판 → 프로그램 제거
2. NVIDIA CUDA 관련 모두 제거
3. 필요한 버전만 재설치
**또는 환경변수로 선택:**
```
CUDA_PATH=C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8
🐌 GPU는 인식되는데 느려요
체크리스트:
✅ Task Manager → Performance → GPU 사용률 확인
- 0-5%면 CPU로 돌고 있는 거예요!
✅ PyTorch에서 확인:
import torch
print(torch.cuda.get_device_name(0)) # GPU 이름 나와야 함
✅ CUDA + cuDNN 버전 일치 확인
✅ 전원 관리:
- NVIDIA 제어판 → 전원 관리 모드 → "최대 성능 선호"
9️⃣ FAQ {#9-faq}
❓ CUDA 여러 버전 동시 설치 가능한가요?
답변: 네, 가능해요!
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\ 아래에 v11.8, v12.1 이렇게 여러 폴더 공존 가능합니다.
사용 버전 전환:
- 환경변수 Path에서 원하는 버전 경로를 위로 올리기
- 또는 CUDA_PATH 변수 수정
저는 프로젝트별로 다른 버전 써야 할 때 유용하더라고요.
❓ cuDNN 라이센스가 필요한가요?
답변: 개인 사용/연구 목적은 무료예요!
상업적 용도로 쓰실 거면 NVIDIA cuDNN 라이센스 확인 권장합니다.
❓ WSL2에서도 같은 방법으로 하나요?
답변: WSL2는 조금 달라요.
Windows에 CUDA 깔려있으면 WSL2에서 자동으로 사용 가능한데, cuDNN은 WSL2 안에 별도 설치 필요해요.
Ubuntu 방식으로:
sudo apt-get install libcudnn8
```
### ❓ Stable Diffusion에서 "--lowvram" 옵션 써야 하나요?
**답변:** VRAM에 따라 달라요:
- 12GB 이상 (3090, 4090) → 안 써도 됨
- 8GB (3070, 4060 Ti) → 1024x1024는 괜찮음
- 6GB 이하 (3060) → `--medvram` 또는 `--lowvram` 권장
### ❓ CUDA 버전 업그레이드하면 재설치 필요한가요?
**답변:** cuDNN은 다시 복사해야 해요!
CUDA 11.8 → 12.1로 업그레이드하면:
1. CUDA 12.1 설치
2. **cuDNN 12.1 호환 버전 다시 복사** (cuda12용)
3. 환경변수 확인
PyTorch 같은 프로그램도 재설치 권장합니다.
---
## 💡 체크리스트: 설치 전 vs 후
### ✅ 설치 전 확인사항
- [ ] 내 GPU 모델 확인 (RTX 3070, 4090 등)
- [ ] GPU Driver 최신 버전 업데이트
- [ ] 사용할 프로그램 권장 CUDA 버전 확인
- Stable Diffusion WebUI → 11.8
- PyTorch 2.2 → 12.1
- TensorFlow 2.15 → 12.3
- [ ] 충분한 디스크 공간 (최소 10GB)
### ✅ 설치 후 확인사항
- [ ] `nvcc --version` 실행 → CUDA 버전 확인
- [ ] `C:\...\CUDA\v11.8\bin\cudnn64_8.dll` 파일 존재 확인
- [ ] 환경변수 `Path`에 CUDA 경로 포함 확인
- [ ] Python에서 `torch.cuda.is_available()` → True
- [ ] Python에서 `torch.backends.cudnn.version()` → 버전 숫자 나옴
- [ ] 실제 프로그램 실행해서 GPU 사용 확인
---
## 🎯 실전 예시: Stable Diffusion WebUI 완벽 세팅
제가 실제로 쓰는 조합 공유할게요! (2025년 1월 기준)
**내 환경:**
- GPU: RTX 4070 Ti (12GB)
- Windows 11
**설치 순서:**
**1. GPU Driver 업데이트**
```
GeForce Experience → 최신 드라이버 (550.78)
```
**2. CUDA 11.8 설치**
```
https://developer.nvidia.com/cuda-11-8-0-download-archive
→ Windows → x86_64 → 11 → exe (local)
```
**3. cuDNN 8.9.2 복사**
```
다운로드: cudnn-windows-x86_64-8.9.2.26_cuda11-archive.zip
압축 풀고 bin, include, lib → CUDA v11.8 폴더로 복사
```
**4. Python 3.10.6 설치**
```
https://www.python.org/downloads/release/python-3106/
5. PyTorch 2.0.1 설치
pip3 install torch==2.0.1+cu118 torchvision==0.15.2+cu118 --extra-index-url https://download.pytorch.org/whl/cu118
6. Stable Diffusion WebUI 설치
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui
webui-user.bat
7. 성능 확인
1024x1024 이미지 생성 시간:
- Before (CPU): 약 8분
- After (GPU + cuDNN): 약 12초
40배 빨라졌어요! 이게 제대로 된 세팅의 위력이죠 💪
🔗 유용한 링크 모음
공식 문서:
- CUDA Toolkit Archive: https://developer.nvidia.com/cuda-toolkit-archive
- cuDNN Archive: https://developer.nvidia.com/cudnn-archive
- cuDNN Direct Download: https://developer.download.nvidia.com/compute/cudnn/redist/cudnn/windows-x86_64/
- GPU Compute Capability: https://developer.nvidia.com/cuda-gpus
- cuDNN Support Matrix: https://docs.nvidia.com/deeplearning/cudnn/support-matrix/
프레임워크별 가이드:
- PyTorch 설치: https://pytorch.org/get-started/locally/
- TensorFlow GPU: https://www.tensorflow.org/install/gpu
- Stable Diffusion WebUI: https://github.com/AUTOMATIC1111/stable-diffusion-webui
커뮤니티:
- Reddit r/StableDiffusion
- NVIDIA Developer Forums
💬 마치며
와... 여기까지 읽으셨다면 정말 대단하세요! 😊
저도 처음에는 CUDA, cuDNN, PyTorch 이런 용어들 보면 머리 아팠는데, 막상 설치하고 나니까 "이게 다였구나" 싶더라고요.
핵심만 요약하면:
- 내 GPU 확인 → Compute Capability 체크
- 프로그램이 요구하는 CUDA 버전 확인 (제일 중요!)
- CUDA Toolkit 설치
- 호환되는 cuDNN 다운로드 → https://developer.download.nvidia.com/compute/cudnn/redist/cudnn/windows-x86_64/
- cuDNN 파일 복사 (bin, include, lib)
- 환경변수 확인
- 실제로 돌려보면서 테스트
버전 불일치 에러 나면 당황하지 마시고, 차근차근 버전 조합 다시 확인해보세요!
혹시 이 가이드 보고 따라하시다가 막히는 부분 있으면 댓글 남겨주세요. 제가 아는 범위에서 최대한 도와드릴게요! 같이 삽질(?)을 줄여봐요 ㅎㅎ
도움이 되셨다면 좋아요 한 번씩 부탁드려요! 💚