임베딩 로컬 모델 - 100-hours-a-week/6-nemo-wiki GitHub Wiki
임베딩 모델 성능 비교 및 최종 선정 결과
본 서비스에서는 사용자 관심사 기반 모임 추천 기능을 위해 총 5개의 로컬 실행 가능한 임베딩 모델을 비교 실험하였습니다.
☑️ 모델 선정 기준
- 한국어 표현력 및 정확도
- 실시간 챗봇 응답에 적합한 응답 속도
- CPU 환경에서의 실행 가능성
- 문장 기반 입력 최적화 여부
- ChromaDB 연동 호환성
비교 모델 리스트
모델명 | 한국어 최적화 | 문장형 적합 | 응답 속도 | 모델 크기 | 비고 |
---|---|---|---|---|---|
intfloat/e5-small-v2 |
✔️ | ✔️ | 빠름 | ⭐⭐⭐ | ✅ 최종 선정 |
intfloat/multilingual-e5-small |
✔️ | ✔️ | 빠름 | ⭐⭐ | 다국어 대응 |
jhgan/ko-sroberta-multitask |
✔️ | ✔️ | 느림 | ⭐⭐⭐⭐ | 한국어 성능 최상 |
snunlp/KR-SBERT-V40K-klueNLI-augSTS |
✔️ | ✔️ | 느림 | ⭐⭐⭐⭐⭐ | 고정밀 문장 유사도 |
BM-K/KoMiniLM |
✔️ | △ | 매우 빠름 | ⭐ | 경량, 성능은 보통 |
intfloat/e5-small-v2
> 최종 선정 모델: ☑️ 선정 이유
- 빠른 응답 시간 (챗봇 응답 흐름 유지에 적합)
- 문장 기반 입력 처리 성능 양호
- CPU 환경에서 원활하게 작동 (로컬/클라우드 호환성 우수)
- ChromaDB 벡터 검색과 연동 테스트 완료
☑️ 향후 계획
- 해당 모델을 기반으로 FastAPI API 서버 구성
- 임베딩 + ChromaDB 기반 모임 추천 기능에 본 모델 활용
- 추후 모델 튜닝 또는 사용자 피드백 기반 평가 자동화도 고려