28 Nov 2022

INDEX

1. Introduction

Running Example

Present Work

Main Contributions

  1. model-based CF 의 embedding function 에서 CF signal 을 explicit 하게 exploit(inject, 사용, 주입) 하는 것의 중요성을 강조함
  2. HC 로써 드러나는 CF signal 을 explicitly encode 할 수 있는 추천 프레임워크 NGCF 제안
  3. sota

2. Methodology

  1. Initialization of user/item embeddings
  2. Multiple embedding propagation layers - injecting HC to refine the embeddings
  3. prediction
    1. aggregates the refined embeddings from defferent propagation layers
    2. outputs the affinity score of a user-item pair (inner product)

2.1 Initialization of user/item embeddings

2.2 Embedding Propatation Layers

2.2.1 First-Order Propagation

  1. Message Construction
    • user-item pair $(u, i)$
    • message from $i$ to $u$ as:
    • \[\text m_{u \leftarrow i} = f(\text e_i, \text e_u, p_{ui})= \frac{1}{\sqrt{\lvert\mathcal N_u\rvert\lvert\mathcal N_i\rvert}}\left(\text W_1\text e_i + \text W_2\left(\text e_i \odot \text e_u \right)\right) \tag{2, 3}\]
    • $m_{u \leftarrow i}$ 는 전파되는 정보(message embedding, information to be propagated)이고, $f(\cdot)$ 은 message encoding function($\text e_u$, $\text e_i$ 가 입력)이다. $p_{ui}$ 는 정규화 상수(decay factor)이다
    • $\text W_1, \text W_2 \in \mathbb R^{d’ \times d}$ are the trainable weight matrices to distill useful infomation for propagation
    • $\text e_i$ 의 contribution 이외에도, $\text e_u$ 와 $\text e_i$ 의 interation 을 반영했다는 것이 conventional GCN 과의 차이이다
      • 이는 message 가 $\text e_i$ 와 $\text e_u$ 의 affinity 에 의존적이게 한다
      • 이는 model의 representation ability 와, 추천 성능을 상승시킨다
        • 4.4.2
    • $p_{ui} = \frac{1}{\sqrt{\lvert\mathcal N_u\rvert\lvert\mathcal N_i\rvert}}$ 는 graph Laplacian norm 이고, $\lvert\mathcal N_u\rvert$, $\lvert\mathcal N_i\rvert$ 는 first-hop neighbors of user u and item i 이다.
      • representation learning 의 관점에서 이것은, 각 item 들이 user preference 에 얼마나 반영되는지를 나타낸다
        • user 가 사용한 item 의 개수에 embedding 이 영향 받지 않도록 해주는 것 같다
      • message passing 의 관점에서 이는 discount factor 이다. path length 가 길어질수록 propagating 되는 message 는 decay 되어갈 것이다
  2. Message Aggregation
    • aggregate the messages propgated from $u$’s neighborhood to refine $u$’s representation
    • \[\text e_u^{(1)} = \text{LeakyReLU}\left(\text m_{u \leftarrow u} + \sum_{i \in \mathcal N_u} \text m_{u \leftarrow i}\right) \tag{4}\]
      • $\text e_u^{(1)}$ 에서 (1) 은 첫 번째 propagation layer 에서 나온 embedding 이라는 의미이다
    • 주목해야 할 부분은 다음과 같다
      • activation function
      • $u$ 의 이웃들인 $\mathcal N_u$의 정보뿐만 아니라 $\text m_{u \leftarrow u}$ 로써 나타나는 self-connection 정보도 전파된다 (이 정도 또한 고려한다 - into consieration)
        • 이때 $\text m_{u \leftarrow u} = \text W_1 \text e_u$ 이다.
    • To summarize, the advantage of the embedding propagation layer lies in explicitly exploiting the first-order connectivity information to relate user and item representations.

2.2.2 High-Order Propagation

2.3 Model Prediction

3. Conclusion

  1. Explicitly incorporate collaborative signal into the embedding function
    • CF signal 을 embedding function 에 명시적으로(explicitly) 포함시켰다
  2. Leverage high-order connectivities in the user-item integration graph
    • user-item integration graph 의 HC 를 활용한다
  3. Inject the user-item graph structure into the embedding learning process
    • user-item graph structure 를 임베딩 과정에서 활용한다
  4. Exploit structural knowledge with the message-passing mechanism
    • 3번 내용과 일치함. 그래프 구조를 활용한다는 의미

2.4 에서는 loss function(BPR임), model size, dropout 기법들(message dropout, node dropout), SVD++와의 비교, 시간복잡도를 다룬다. chap 3은 related work, 4는 experiment 이다.
이 내용들은 NGCF 를 이해하는 데에 그리 중요한 내용은 아니라 생각해 생략했음

first draft: 2022.12.02 02:53