Recommder Sytem - penny4860/study-note GitHub Wiki

질문

Wide & Deep learning

  • memorization / generalization의 장, 단점을 정리해보자.
    • over generalization이면 뭐가 문제일까..
  • cross product transformation 수식
  • pointwise ranking 모델인데 negative sample은 안쓰는 건가?
    • 아니면 positive sample 1개이고 나머지는 모두 negative로?
  • Factorization Machine은 뭘까?

Neural Collaborative Autoencoder

  • sparse한 user에게만 DA를 하는 이유?
  • DA과정에서 dropout한 item도 원래의 score를 맞추도록 학습하는 건가?

AE기반 CF

  • BCEWithLogitsLoss 를 사용하는 방법과 loss = -torch.mean(torch.sum(F.log_softmax(logits, 1) * labels, -1))의 차이?

Deep Learning Based Sequential Reco.

  • uniform sampling을 negative sample을 random으로 정하는 건가?
  • additional sampling은 (26) 논문의 내용을 확인해 보자.
  • (9) : 추천의 다양성을 추구한 논문 리뷰
  • 서로다른 behavior type을 결합하는 방법을 조사.
    • 54
    • (37) : session을 target / supporting sequence로 분할해서 어떻게 쓰는 걸까?
    • 테이블2
  • (image, text description)를 포함하는 방식을 조사해보자.
  • user context 정보를 추가하는 방식을 확인
    • ARNN (71)
    • (56) : user의 behavior sequence를 입력으로 user representation을 어떻게 학습했는지 리뷰
    • 테이블2
  • 평가 metric
    • recall / MRR / map / ndcg 에 대해서 정리해보자.
  • 43번 논문에서의 임베딩 방식 조사
  • NLP에서는 negative sampling을 어떻게 쓰는지 조사.

GRU4Rec

  • original GRU는 input vector / hidden vector를 입력 받는다. 그림 1에서의 구조대로라면 3개를 입력받는건가?
  • 3.1.1 Session-Parallel mini-batches 에서 BTPP를 안쓰고 1-step으로만 학습하면 hidden layer끼리의 weight는 업데이트를 못하는거 아닌가? (Fig. 2)
  • Item-kNN이 어떤건지 모르겠다. 조사해보자.

목차

논문리뷰

기타