본문 바로가기

AI

Windows 11 + RTX 4080 환경에서 Wan 2.1 설치 가이드

반응형

이제 수집된 정보를 바탕으로 Windows 11 + RTX 4080 환경에서 Wan 2.1 설치 가이드를 작성하겠습니다.

# Windows 11 + RTX 4080 환경에서 Wan 2.1 설치 가이드

## 개요

Wan 2.1은 Alibaba에서 개발한 오픈소스 AI 비디오 생성 모델로, 텍스트-비디오 변환(Text-to-Video)과 이미지-비디오 변환(Image-to-Video) 기능을 제공합니다. 이 가이드는 Windows 11과 RTX 4080 GPU를 사용하여 Wan 2.1을 설치하고 이미지를 동영상으로 변환하는 방법을 상세히 설명합니다.

## 시스템 요구사항

### 최소 요구사항
- **운영체제**: Windows 11 
- **GPU**: RTX 4080 (16GB VRAM)
- **RAM**: 16GB DDR4/DDR5 (32GB 권장)
- **저장공간**: 20GB 이상 여유 공간
- **CPU**: 6코어 이상 (16코어 권장)

### 성능 예상치
RTX 4080 16GB VRAM 환경에서의 예상 성능:
- **480p 비디오**: 약 10-15분 소요
- **720p 비디오**: 약 30-45분 소요 [Novita AI Blog](https://blogs.novita.ai/choosing-the-right-gpu-for-your-wan-2-1/)
- **5초 비디오**: 약 45분 소요 [YouTube](https://www.youtube.com/watch?v=x78PQLcNL9M&pp=0gcJCdgAo7VqN5tD)

## 설치 방법

### 방법 1: Pinokio AI를 통한 자동 설치 (권장)

이 방법은 가장 간단하고 초보자에게 친화적인 설치 방법입니다.

#### 1단계: Pinokio AI 설치

1. [Pinokio 공식 웹사이트](https://pinokio.computer/)에 접속
2. Windows용 설치 프로그램을 다운로드
3. 설치 프로그램을 실행하고 설치 위치와 테마를 선택
4. 저장을 클릭하여 설치 완료

#### 2단계: WAN 2.1 설치

1. Pinokio를 실행하고 "Discover Page" 버튼 클릭
2. 검색창에 "WAN 2.1" 검색
3. **Download** 버튼을 클릭
4. **Install** 버튼을 클릭하여 필요한 시스템 파일을 자동으로 설치

### 방법 2: 수동 설치 (고급 사용자용)

#### 1단계: 필수 소프트웨어 설치

1. **Python 3.10 설치**
   ```bash
   # Anaconda 사용 시
   conda create -n wan21 python=3.10
   conda activate wan21
   ```

2. **CUDA 및 cuDNN 설치**
   - [NVIDIA CUDA 다운로드 페이지](https://developer.nvidia.com/cuda-downloads)에서 CUDA 11.8 이상 설치
   - cuDNN 라이브러리 설치

3. **PyTorch 설치**
   ```bash
   pip install torch==2.4.0 torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
   ```

#### 2단계: Wan 2.1 저장소 클론

```bash
git clone https://github.com/Wan-Video/Wan2.1.git
cd Wan2.1
```

#### 3단계: 의존성 설치

```bash
pip install -r requirements.txt
pip install "huggingface_hub[cli]"
pip install modelscope
```

#### 4단계: 모델 다운로드

```bash
# Hugging Face에서 모델 다운로드
huggingface-cli download Wan-AI/Wan2.1-I2V-14B-720P --local-dir ./Wan2.1-I2V-14B-720P
```

### 방법 3: ComfyUI를 통한 설치

#### 1단계: ComfyUI 설치

1. [ComfyUI 공식 저장소](https://github.com/comfyanonymous/ComfyUI)에서 ComfyUI 다운로드
2. Windows 버전을 다운로드하여 압축 해제

#### 2단계: Wan 2.1 노드 설치

1. ComfyUI의 `custom_nodes` 폴더로 이동
2. Wan 2.1 노드를 설치:
   ```bash
   git clone https://github.com/kijai/ComfyUI-WAN2
   ```
3. 필요한 패키지 설치:
   ```bash
   pip install -r requirements.txt
   ```

## RTX 4080 최적화 설정

### 메모리 최적화

1. **SageAttention2++ 활성화**
   - VRAM 사용량을 약간 줄이면서 호환성 향상
   ```bash
   pip install sageattention
   ```

2. **MagCache 사용**
   - TeaCache보다 효율적인 스텝 스키핑 방식
   ```bash
   # ComfyUI에서 MagCache 노드 추가
   ```

3. **배치 사이즈 조정**
   - 16GB VRAM에서는 배치 사이즈를 1로 설정
   ```python
   batch_size = 1
   ```

### 성능 최적화

1. **추론 스텝 조정**
   - 품질과 속도의 균형을 위해 20-30 스텝 사용
   ```bash
   --inference_steps 25
   ```

2. **해상도 설정**
   - 720p: 1280x720 (권장)
   - 480p: 854x480 (빠른 테스트용)

## 이미지-비디오 변환 사용법

### 기본 사용법

#### 1단계: 입력 이미지 준비
- 지원 형식: JPG, PNG, WEBP
- 권장 해상도: 1280x720 이상

#### 2단계: 비디오 생성 (명령줄)

```bash
python generate.py \
  --task i2v-14B \
  --size 1280*720 \
  --ckpt_dir ./Wan2.1-I2V-14B-720P \
  --image examples/input_image.jpg \
  --prompt "A beautiful sunset over mountains, cinematic lighting"
```

#### 3단계: 프롬프트 확장 사용 (선택사항)

```bash
python generate.py \
  --task i2v-14B \
  --size 1280*720 \
  --ckpt_dir ./Wan2.1-I2V-14B-720P \
  --image examples/input_image.jpg \
  --use_prompt_extend \
  --prompt_extend_model Qwen/Qwen2.5-VL-7B-Instruct \
  --prompt "A serene landscape with gentle movement"
```

### Gradio 웹 인터페이스 사용

```bash
cd gradio
python i2v_14B_singleGPU.py \
  --prompt_extend_method dashscope \
  --ckpt_dir_720p ./Wan2.1-I2V-14B-720P
```

웹 브라우저에서 `http://localhost:7860`에 접속하여 직관적인 인터페이스로 비디오 생성이 가능합니다.

### ComfyUI 워크플로우 사용

1. ComfyUI 실행
2. Wan 2.1 I2V 노드 추가
3. 입력 이미지 로드
4. 프롬프트 입력
5. 생성 매개변수 설정:
   - **Width**: 1280
   - **Height**: 720
   - **Frames**: 16-24
   - **Steps**: 20-30
   - **Guidance Scale**: 7.5

## 실제 사용 예시

### 예시 1: 풍경 사진 애니메이션

```bash
# 입력: 정적인 산 풍경 사진
# 프롬프트: "Gentle clouds moving across the sky, soft wind through trees"
# 결과: 구름이 움직이고 나무가 바람에 흔들리는 5초 비디오
```

### 예시 2: 인물 사진 애니메이션

```bash
# 입력: 인물 초상화
# 프롬프트: "Subtle facial expressions, natural breathing, soft lighting"
# 결과: 자연스러운 표정 변화와 호흡이 느껴지는 비디오
```

## 문제 해결

### 일반적인 문제

1. **CUDA 메모리 부족 오류**
   ```bash
   # 해결방법: 해상도 낮추기
   --size 854*480
   ```

2. **속도가 너무 느린 경우**
   ```bash
   # 해결방법: 스텝 수 줄이기
   --inference_steps 15
   ```

3. **품질이 낮은 경우**
   ```bash
   # 해결방법: 가이던스 스케일 조정
   --guidance_scale 9.0
   ```

### 성능 팁

1. **메모리 정리**: 각 생성 후 GPU 메모리 정리
2. **스왑 설정**: 시스템 가상 메모리를 32GB로 설정
3. **백그라운드 앱 종료**: 불필요한 프로그램 종료로 메모리 확보

## 추가 자료

- [Wan 2.1 공식 저장소](https://github.com/Wan-Video/Wan2.1)
- [Wan 2.1 모델 허브](https://huggingface.co/Wan-AI/Wan2.1-I2V-14B-720P)
- [ComfyUI Wan 2.1 가이드](https://comfyui-wiki.com/en/tutorial/advanced/video/wan2.1/wan2-1-video-model)
- [GPU Poor 버전](https://github.com/deepbeepmeep/Wan2GP)

이 가이드를 통해 Windows 11 + RTX 4080 환경에서 Wan 2.1을 성공적으로 설치하고 이미지를 동영상으로 변환할 수 있습니다. 처음 설치 시에는 Pinokio AI를 통한 자동 설치를 권장하며, 고급 사용자는 수동 설치나 ComfyUI를 통한 설치를 선택할 수 있습니다.

반응형