[EVERYONE] 2025.04.24 - 100-hours-a-week/21-iceT-wiki GitHub Wiki

📝 AI 서버 확장 및 2차 배포 기술 논의 회의

1. 회의개요 (회의개요: 한 줄 설명으로 간결하게)

항목 내용
회의명 AI 서버 확장 및 2차 배포 기술 논의 회의
일시 2025.04.24 (14:00 ~ 16:50)
장소 카카오부트캠프 타운홀
참석자 evan.kim, noah.hwang, milo.park, sophie.kim, maeve.ji
목적 AI 서버 확장 방식, AWS/GCP 활용 전략, 챗봇 아키텍처 설계, 2차 배포 구성 논의

2. 아젠다 (아젠다: "주제 중심"으로 짧게)

번호 아젠다 항목
1 AI 서버 확장 및 클라우드 인프라 구성 전략
2 챗봇 성능 개선 및 사용자 제한 여부
3 2차 배포 아키텍처 및 인프라 시나리오 논의
4 백엔드 기술 스택 결정 및 도입 검토

3. 논의 내용 (논의 내용: 구체적 but 불필요한 디테일은 생략 (중요한 결정/논의 위주))

1) AI 서버 확장 및 클라우드 인프라 전략

  • AI 서버는 GCP의 GPU 서버를 활용 예정 (성능 대비 효율 고려)

  • 인프라는 AWS를 중심으로 계속 운영

  • 클라우드 운용 비용을 고려한 아키텍처 기반으로 인프라를 구성하되, 상황에 따라 유동적으로 변경할 수 있도록 설계

  • 클라우드 비용 문제는 프로젝트 진행 과정에서 지속적으로 논의할 예정

2) 챗봇 아키텍처 및 성능/비용 고려

  • 챗봇 통신 방식으로 WebSocket 사용 확정

  • AI 성능 및 응답 속도 이슈로 인해 사용자 수 제한 및 운영 시간 제한 등 제약 조건에 대한 논의 진행

3) 2차 배포 아키텍처 및 인프라 이슈

  • 2차 배포는 Docker를 활용한 클라우드 기반 아키텍처로 설계 완료

  • 인프라 트러블 발생 시 대응 시나리오에 대한 논의 진행 (예: 네트워크 단절, DB 장애 등)

  • 현재 dev, prod 환경만 구성되어 있으나, 향후 운영환경 배포 전 테스트를 위한 스테이징 환경 필요성에 대한 논의가 있었으며 구체적인 결론은 도출되지 않음

4) 백엔드 기술 스택 결정

  • Redis를 백엔드에 도입하여 데이터 처리 성능 향상

  • WebSocket 기반 실시간 통신 기술로 챗봇 구현 예정

4. 결정사항 (결정사항: 명확하고 단문형으로)

번호 결정사항
1 AI 서버는 GCP GPU 서버 기반으로 확장
2 클라우드 인프라는 AWS 중심으로 운영하되, 유동적 변경 가능성 고려
3 WebSocket을 챗봇 통신 방식으로 확정
4 Redis 도입 확정
5 2차 배포는 Docker 기반 클라우드 아키텍처로 진행
6 챗봇 기능은 사용자 수 및 시간 제한을 포함해 운영할 수 있음

5. Action Items (Action Items: 누가, 언제까지 무엇을)

업무 항목 담당자 완료 예정일
GCP GPU 서버 견적 확인 및 환경 세팅 클라우드팀 2025.04.29
2차 배포 아키텍처 문서화 클라우드팀 2025.04.25

6. 기타 논의사항

항목 내용
없음

7. 다음 회의 안내 (다음 회의 안내: 구체적인 예정일과 아젠다)

항목 내용
예정일 2025.04.29 (화)
주요 아젠다 GCP GPU 서버 테스트 결과 공유, 챗봇 성능 개선 방안, 스테이징 환경 구성 방향 논의

8. 요약 (핵심 결정사항 2~3줄 요약)

항목 내용
요약 AI 서버는 GCP GPU 서버로 확장하고, AWS를 중심으로 한 인프라 운영은 유지하며 유동적으로 대응할 수 있도록 설계. WebSocket 기반 챗봇 구조 도입과 Redis 백엔드 통합 확정. 2차 배포는 Docker 기반 아키텍처로 설계되었으며, 다양한 인프라 장애 대응 시나리오도 함께 논의됨.