라벨이 llm인 게시물 표시

도커에서 vllm 사용 설정 가이드

도커에서 vllm 사용 설정 가이드 # 도커에서 gpu를 사용하기 위한 기본설정 호스트 쪽 ✅ NVIDIA 드라이버 ✅ Docker ✅ NVIDIA Container Toolkit (nvidia-container-toolkit) 이미지/컨테이너 쪽 ✅ CUDA / cuDNN 라이브러리 포함된 베이스 이미지 (또는 vLLM/Qwen 공식 이미지) 1. 호스트(서버)에 필요한 것 (1) NVIDIA 드라이버 (반드시 호스트에만 설치) nvidia-smi 잘 나오면 OK  컨테이너 안에는 드라이버 설치하면 안 됨 → 드라이버는 “호스트 전용”, 컨테이너는 라이브러리(CUDA, cuDNN)만 있으면 됨. (2) Docker + NVIDIA Container Toolkit GPU를 Docker에 연결해주는 게 NVIDIA Container Toolkit 이라서 필요. NVIDIA Container Toolkit (nvidia-container-toolkit) 툴킷은 도커 내부에 gpu를 사용할수 있게 해주는 브릿지 역할 # 패키지 저장소 추가 (OS별로 다름, 예시는 Ubuntu) # sudo distribution=$(. /etc/os-release;echo $ID$VERSION_ID) # curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit.gpg # curl -s -L https://nvidia.github.io/libnvidia-container/$distribution/libnvidia-container.list | \ #   sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit.gpg] https://#g' | \ #   sudo tee /et...

Qwen/Qwen3-VL-32B-Instruct 리눅스 셋팅하기

Qwen/Qwen3-VL-32B-Instruct /* gpu 서버 가상환경 생성 */ 1) 가상환경 python3 -m venv /data/cbw/venvs/qwen3 source /data/cbw/venvs/qwen3/bin/activate # 최신 pip로 업데이트 python -m pip install -U pip 2) Hugging Face CLI & 라이브러리 설치 pip install --upgrade pip setuptools wheel && pip cache purge && pip install -U "transformers>=4.45.0" "tokenizers>=0.19.1" "huggingface_hub[cli]" "accelerate" -- pip install -U "huggingface_hub[cli]" transformers accelerate (선택) 로그인 – Private 모델 쓸 때 huggingface-cli login # 3-1) 디렉터리 준비 mkdir -p /data/cbw/huggingface/hf_cache # 3-2) 현재 쉘 세션에 적용 export HF_HOME=/data/cbw/huggingface/hf_cache # 3-3) 영구 반영 (zsh 예시: ~/.zshrc / bash면 ~/.bashrc) echo 'export HF_HOME=/data/cbw/huggingface/hf_cache' >> ~/.bashrc # 새 터미널에서 자동 적용되며, 현 세션엔 아래로 즉시 적용: source ~/.bashrc (빠른 확인) python - << 'PY' import os; print("HF_HOME =", os.environ.get("HF_HOME")) PY 4) (선택) 모델을 미리 ...

허깅페이스 cli 설치 & vllm 설치 테스트

허깅페이스 cli 설치 * 준비물 - Python 3.10+ & pip - NVIDIA 드라이버 설치 1) 가상 환경 python3 -m venv ~/venvs/llm source ~/venvs/llm/bin/activate # 최신 pip로 업데이트 python -m pip install -U pip # 1. rustup 설치 (공식 툴체인 관리자) curl --proto '=https' --tlsv1.2 -sSf https://sh.rustup.rs | sh source $HOME/.cargo/env 2) Hugging Face CLI & 라이브러리 설치 # (venv가 켜져 있다고 가정) export RUSTFLAGS="-A invalid_reference_casting" pip install -U "huggingface_hub[cli]" transformers accelerate (선택) 로그인 – Private 모델 쓸 때 hf auth login # 토큰 입력 (https://huggingface.co/settings/tokens 에서 발급) 3) 캐시 저장 경로를 대용량 디스크로 변경 한 번만 설정해두면 편한 HF_HOME을 추천합니다. (모델/데이터셋/설정이 전부 이 경로 아래로 이동) # 3-1) 디렉터리 준비 mkdir -p /data/huggingface/hf_cache # 3-2) 현재 쉘 세션에 적용 export HF_HOME=/data/huggingface/hf_cache # 3-3) 영구 반영 (zsh 예시: ~/.zshrc / bash면 ~/.bashrc) echo 'export HF_HOME=/data/huggingface/hf_cache' >> ~/.bashrc # 새 터미널에서 자동 적용되며, 현 세션엔 아래로 즉시 적용: source ~/.bashrc (빠른 확인) python - << 'PY' i...

이 블로그의 인기 게시물

아파치 보안관련 기본설정

티베로 이관 작업 절차

윈도우 네트워크 리소스 사용권한 오류