임베딩 로컬 모델 - 100-hours-a-week/6-nemo-wiki GitHub Wiki

임베딩 모델 성능 비교 및 최종 선정 결과

본 서비스에서는 사용자 관심사 기반 모임 추천 기능을 위해 총 5개의 로컬 실행 가능한 임베딩 모델을 비교 실험하였습니다.

☑️ 모델 선정 기준

  • 한국어 표현력 및 정확도
  • 실시간 챗봇 응답에 적합한 응답 속도
  • CPU 환경에서의 실행 가능성
  • 문장 기반 입력 최적화 여부
  • ChromaDB 연동 호환성

비교 모델 리스트

모델명 한국어 최적화 문장형 적합 응답 속도 모델 크기 비고
intfloat/e5-small-v2 ✔️ ✔️ 빠름 ⭐⭐⭐ ✅ 최종 선정
intfloat/multilingual-e5-small ✔️ ✔️ 빠름 ⭐⭐ 다국어 대응
jhgan/ko-sroberta-multitask ✔️ ✔️ 느림 ⭐⭐⭐⭐ 한국어 성능 최상
snunlp/KR-SBERT-V40K-klueNLI-augSTS ✔️ ✔️ 느림 ⭐⭐⭐⭐⭐ 고정밀 문장 유사도
BM-K/KoMiniLM ✔️ 매우 빠름 경량, 성능은 보통

> 최종 선정 모델: intfloat/e5-small-v2

☑️ 선정 이유

  • 빠른 응답 시간 (챗봇 응답 흐름 유지에 적합)
  • 문장 기반 입력 처리 성능 양호
  • CPU 환경에서 원활하게 작동 (로컬/클라우드 호환성 우수)
  • ChromaDB 벡터 검색과 연동 테스트 완료

☑️ 향후 계획

  • 해당 모델을 기반으로 FastAPI API 서버 구성
  • 임베딩 + ChromaDB 기반 모임 추천 기능에 본 모델 활용
  • 추후 모델 튜닝 또는 사용자 피드백 기반 평가 자동화도 고려