카테고리 없음
DeepSeek 개별 PC에서 설치해서 사용하는 방법 알려주세요
오아름 샘
2025. 4. 24. 01:43
반응형
현재(2025년) DeepSeek의 제품 중 개별 PC에 설치해 사용할 수 있는 버전은 DeepSeek Chat의 로컬 배포 버전이나 DeepSeek-V2/V3 모델을 직접 실행하는 방식입니다.
1. DeepSeek Chat 데스크톱 앱 (공식 제공)
- Windows/macOS용 공식 앱이 제공되는 경우, DeepSeek 공식 홈페이지에서 다운로드할 수 있습니다.
- 설치 후 바로 사용 가능하며, 인터넷 연결이 필요할 수 있습니다.
2. LLM 모델 직접 실행 (고급 사용자)
DeepSeek-V2 또는 V3와 같은 오픈 웨이트 모델을 직접 PC에서 실행하려면 다음과 같은 방법이 있습니다.
필요한 사항
- 사양 요구:
- RAM: 최소 16GB (권장 32GB 이상)
- GPU: NVIDIA 전용 GPU (RTX 3090/4090 등)가 있으면 더 빠릅니다.
- 저장공간: 모델 파일이 10~50GB 정도 필요할 수 있습니다.
실행 방법
모델 다운로드
- Hugging Face에서 DeepSeek 모델 체크포인트를 받습니다.
- DeepSeek-V2
- git lfs install && git clone https://huggingface.co/deepseek-ai/deepseek-llm-7b
로컬에서 LLM 실행
텍스트 생성 웹 UI 도구 (예: Oobabooga, LM Studio, llama.cpp)를 사용해 로드합니다.
예시 (Oobabooga 사용):
python server.py --model deepseek-ai/deepseek-llm-7b --load-in-4bit
속도 향상을 위해 GGUF 양자화 모델을 사용할 수도 있습니다.
커맨드라인에서 직접 실행 (Python)
- Transformers 라이브러리로 테스트:
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "deepseek-ai/deepseek-llm-7b"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name, device_map="auto")
input_text = "DeepSeek을 PC에서 실행하는 방법은?"
inputs = tokenizer(input_text, return_tensors="pt").to("cuda")
outputs = model.generate(**inputs, max_new_tokens=50)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
Docker로 실행 (선택 사항)
- DeepSeek이 공식 Docker 이미지를 제공한다면, 다음과 같이 실행할 수 있습니다.
docker pull deepseek-ai/deepseek-chat
docker run -p 7860:7860 deepseek-ai/deepseek-chat
- 간편한 사용 → 공식 데스크톱 앱을 다운로드
- 고성능/커스터마이징 → 로컬 LLM (Hugging Face + GPU 활용)
- Docker 사용 → 공식 이미지가 있는 경우에 가능
반응형