Recommder Sytem - penny4860/study-note GitHub Wiki
질문
Wide & Deep learning
- memorization / generalization의 장, 단점을 정리해보자.
- over generalization이면 뭐가 문제일까..
- cross product transformation 수식
- pointwise ranking 모델인데 negative sample은 안쓰는 건가?
- 아니면 positive sample 1개이고 나머지는 모두 negative로?
- Factorization Machine은 뭘까?
Neural Collaborative Autoencoder
- sparse한 user에게만 DA를 하는 이유?
- DA과정에서 dropout한 item도 원래의 score를 맞추도록 학습하는 건가?
AE기반 CF
BCEWithLogitsLoss
를 사용하는 방법과 loss = -torch.mean(torch.sum(F.log_softmax(logits, 1) * labels, -1))
의 차이?
Deep Learning Based Sequential Reco.
- uniform sampling을 negative sample을 random으로 정하는 건가?
- additional sampling은 (26) 논문의 내용을 확인해 보자.
- (9) : 추천의 다양성을 추구한 논문 리뷰
- 서로다른 behavior type을 결합하는 방법을 조사.
- 54
- (37) : session을 target / supporting sequence로 분할해서 어떻게 쓰는 걸까?
- 테이블2
- (image, text description)를 포함하는 방식을 조사해보자.
- user context 정보를 추가하는 방식을 확인
- ARNN (71)
- (56) : user의 behavior sequence를 입력으로 user representation을 어떻게 학습했는지 리뷰
- 테이블2
- 평가 metric
- recall / MRR / map / ndcg 에 대해서 정리해보자.
- 43번 논문에서의 임베딩 방식 조사
- NLP에서는 negative sampling을 어떻게 쓰는지 조사.
GRU4Rec
- original GRU는
input vector
/ hidden vector
를 입력 받는다. 그림 1에서의 구조대로라면 3개를 입력받는건가?
3.1.1 Session-Parallel mini-batches
에서 BTPP를 안쓰고 1-step으로만 학습하면 hidden layer끼리의 weight는 업데이트를 못하는거 아닌가? (Fig. 2)
- Item-kNN이 어떤건지 모르겠다. 조사해보자.
목차
논문리뷰
기타