라벨이 llm인 게시물 표시

CVAT 프로젝트 생성 및 사용방법

이미지
CVAT 사용방법 1. cvat 프로젝트 생성     Add label 클릭   label 이름 text 입력 타입은 디폴트 Any  선택 Add an attribute 클릭하여 속성 추가   속성 2개 추가 하나는 이미지에 있는 텍스트, 또 하나는 정답 텍스트 속성  text 입력 타입은 Text 이고 수정가능하게 Mutable 체크 속성 transcription 추가 타입은 Text 이고 수정가능학 Mutable 체크 다 추가 한 후에 Submit & Open 클릭하여 저장 2. Tasks 생성 Tasks 탭에서 Create a new task 클릭 Name 입력 :  알아볼수 있는 이름 Project : 기존에 만든 프로젝트 선택 Subset 필수는 아님 그냥 Train 선택 이미지 파일 추가 Advanced configuration image quality 좋게 100% 입력 Overlap size 0 으로 입력해야 추가한 이미지 그룹으로 묶임 segment size 비워둬야 추가한 이미지 전체가 그룹으로 묶임 저장하고 나면 Jobs에 추가한 Tasks가 보임 Jobs 에 클릭하여 들어가서 작업 영역을 잘 선택후 속성에서 text 에는 이미지에 보이는 텍스트 transcription 에는 이미지에 오타가 있을수도 있기 때문에 text와 조금 다를수 있음 대부분 text와 같음 정답을 입력

Qwen/Qwen3-VL-32B-Instruct 리눅스 셋팅하기

Qwen/Qwen3-VL-32B-Instruct /* gpu 서버 가상환경 생성 */ 1) 가상환경 python3 -m venv /data/cbw/venvs/qwen3 source /data/cbw/venvs/qwen3/bin/activate # 최신 pip로 업데이트 python -m pip install -U pip 2) Hugging Face CLI & 라이브러리 설치 pip install --upgrade pip setuptools wheel && pip cache purge && pip install -U "transformers>=4.45.0" "tokenizers>=0.19.1" "huggingface_hub[cli]" "accelerate" -- pip install -U "huggingface_hub[cli]" transformers accelerate (선택) 로그인 – Private 모델 쓸 때 huggingface-cli login # 3-1) 디렉터리 준비 mkdir -p /data/cbw/huggingface/hf_cache # 3-2) 현재 쉘 세션에 적용 export HF_HOME=/data/cbw/huggingface/hf_cache # 3-3) 영구 반영 (zsh 예시: ~/.zshrc / bash면 ~/.bashrc) echo 'export HF_HOME=/data/cbw/huggingface/hf_cache' >> ~/.bashrc # 새 터미널에서 자동 적용되며, 현 세션엔 아래로 즉시 적용: source ~/.bashrc (빠른 확인) python - << 'PY' import os; print("HF_HOME =", os.environ.get("HF_HOME")) PY 4) (선택) 모델을 미리 ...

허깅페이스 cli 설치 & vllm 설치 테스트

허깅페이스 cli 설치 * 준비물 - Python 3.10+ & pip - NVIDIA 드라이버 설치 1) 가상 환경 python3 -m venv ~/venvs/llm source ~/venvs/llm/bin/activate # 최신 pip로 업데이트 python -m pip install -U pip # 1. rustup 설치 (공식 툴체인 관리자) curl --proto '=https' --tlsv1.2 -sSf https://sh.rustup.rs | sh source $HOME/.cargo/env 2) Hugging Face CLI & 라이브러리 설치 # (venv가 켜져 있다고 가정) export RUSTFLAGS="-A invalid_reference_casting" pip install -U "huggingface_hub[cli]" transformers accelerate (선택) 로그인 – Private 모델 쓸 때 hf auth login # 토큰 입력 (https://huggingface.co/settings/tokens 에서 발급) 3) 캐시 저장 경로를 대용량 디스크로 변경 한 번만 설정해두면 편한 HF_HOME을 추천합니다. (모델/데이터셋/설정이 전부 이 경로 아래로 이동) # 3-1) 디렉터리 준비 mkdir -p /data/huggingface/hf_cache # 3-2) 현재 쉘 세션에 적용 export HF_HOME=/data/huggingface/hf_cache # 3-3) 영구 반영 (zsh 예시: ~/.zshrc / bash면 ~/.bashrc) echo 'export HF_HOME=/data/huggingface/hf_cache' >> ~/.bashrc # 새 터미널에서 자동 적용되며, 현 세션엔 아래로 즉시 적용: source ~/.bashrc (빠른 확인) python - << 'PY' i...

이 블로그의 인기 게시물

티베로 이관 작업 절차

아파치 보안관련 기본설정

윈도우 네트워크 리소스 사용권한 오류