AI GPU SERVER 인스턴스 검토 - 100-hours-a-week/5-yeosa-wiki GitHub Wiki
1. 스타일 변환 태스크 기반 리소스 조건
a. 주요 특징 요약
항목 | 내용 |
---|---|
GPU | T4 기준, 최대 Load: 32%, VRAM 약 3GB |
CPU | Peak 사용률: 94.5% (2 vCPU 기준) → ≒ 1.9 코어 사용 |
메모리(RAM) | 평균 22.6%, 피크 22.9% (Colab 12.7GB 중) → 약 3GB 사용 |
디스크 | 변화 없음, 캐시 중심, I/O 병목 없음 |
b. 최소 자원 조건 (단일 요청 처리 기준)
자원 종류 | 최소 조건 | 설명 |
---|---|---|
vCPU | 2 vCPU |
평균 사용률 50%, 피크 시 2 vCPU 꽉 채움 |
메모리 | 4GB |
3GB 이상 사용하는 순간 존재, 여유 고려 |
GPU | 1 x T4 |
Load 30% 수준, 충분히 대응 가능 |
GPU 메모리 | ≥ 4GB |
2.9~3.0GB peak, ControlNet 모델 포함 |
디스크 | ≥ 50GB SSD |
모델/LoRA/ControlNet 캐시 포함 최소 요구 |
c. 권장 자원 조건 (여러 요청 처리 고려 시)
자원 종류 | 권장 조건 | 설명 |
---|---|---|
vCPU | 4 vCPU |
2코어는 태스크용, 2코어는 여유/서버 대응 |
메모리 | 8GB |
이미지 크기/해상도 커질 때 대비 |
GPU | 1 x T4 or better (L4, A10G) |
T4로 충분, 추후 성능 개선 여지 있음 |
GPU 메모리 | ≥ 6GB |
여러 ControlNet 병렬 또는 고해상도 대비 |
디스크 | 100GB SSD |
모델 여러 개 & 이미지 저장 고려 |
d. GCP 기준 예시 인스턴스
항목 | 스펙 |
---|---|
머신타입 | n1-standard-4 (4 vCPU, 15GB RAM) |
GPU | NVIDIA Tesla T4 |
디스크 | 100GB pd-ssd |
예상 비용 (서울 리전 기준) | US$326.63 |
(시간당 약 US$0.45) |
- n1-highcpu-4: vCPU 4, 메모리 3.6GB (시간당 약 US$0.40)
- n1-highcpu-8: vCPU 8, 메모리 7.2GB (시간당 약 US$0.53)
- n1-standard-4가 가장 적합함