iT邦幫忙

2023 iThome 鐵人賽

DAY 18
0
AI & Data

初探 Network Science系列 第 18

Day-18-Paper Reading -- Graph Embedding - 續

  • 分享至 

  • xImage
  •  

Graph Embedding Techniques

Edge Reconstruction Based Optimization

  • Maximizing Edge Reconstruction Probability
  • Minimizing Distance-Based Loss
  • Minimizing Margin-Based Ranking Loss

Maximizing Edge Reconstruction Probability

意思是好的 embedding 方法是可以在 input graph 中重建出原本的 edge(?)

First-order Proximity
  • https://chart.googleapis.com/chart?cht=tx&chl=%24%7Bp%5E%7B(1)%7D%7D(%7Bv_i%7D%2C%7Bv_j%7D)%24 ---> https://chart.googleapis.com/chart?cht=tx&chl=%24v_%7Bi%7D%24https://chart.googleapis.com/chart?cht=tx&chl=%24v_%7Bj%7D%24 之間的 first-order proximity,可以藉由 joint probability 計算出來
  • 用微觀一點的角度來看,就是要最大化任兩點連接的機率
    • https://chart.googleapis.com/chart?cht=tx&chl=%24%7Bp%5E%7B(1)%7D%7D(%7Bv_i%7D%2C%7Bv_j%7D)%20%3D%20%5Cfrac%7B1%7D%7B%7B1%20%2B%20%5Cexp%20(-%20%7By_i%7D%5ET%7By_j%7D)%7D%7D%24

objective function

但因為最佳化的目標是所有節點,所以要把它們都加總起來

https://chart.googleapis.com/chart?cht=tx&chl=%24%7BO%7D_%7Bmax%7D%5E%7B(1)%7D%20%3D%20%5Cmathop%20%7B%5Cmax%7D%20%5Csum%20_%7B%7Be_%7Bij%7D%7D%20%5Cin%20E%7D%20%7B%5Clog%20%7Bp%5E%7B(1)%7D%7D(%7Bv_i%7D%2C%7Bv_j%7D)%7D%24

Second-order Proximity

有 first-order proximity,當然也有 second-order proximity

  • 任兩節點的 second-order proximity,可以藉由當 https://chart.googleapis.com/chart?cht=tx&chl=%24v_%7Bi%7D%24 在 start node 的情況下,https://chart.googleapis.com/chart?cht=tx&chl=%24v_%7Bj%7D%24 為 end node 的機率來計算(conditional probability)
    • https://chart.googleapis.com/chart?cht=tx&chl=%24%7Bp%5E%7B(2)%7D%7D(%7Bv_j%7D%7C%7Bv_i%7D)%20%3D%20%5Cfrac%7B%5Cexp%20(y_j%5ET%7By_i%7D)%7D%7B%7B%5Csum%20_%7Bk%20%3D%201%7D%5E%7B%7CV%7C%7D%20%7B%5Cexp%20(y_k%5ET%7By_i%7D)%7D%7D%7D%24

objective function

https://chart.googleapis.com/chart?cht=tx&chl=%7BO%7D_%7Bmax%7D%5E%7B(2)%7D%20%3D%20%20%7B%5Cmax%7D%20%5Csum%20_%7B%7B%5Clbrace%20v_i%2C%20v_j%5Crbrace%7D%20%5Cin%20%5Cmathcal%7BP%7D%7D%20%7B%5Clog%20%7Bp%5E%7B(2)%7D%7D(%7Bv_j%7D%7C%7Bv_i%7D)%7D

其中 https://chart.googleapis.com/chart?cht=tx&chl=%24%5Cmathcal%7BP%7D%24 所代表的是在 graph 隨機抽樣出來的路徑集合,並不是所有的路徑都會被考慮進去

Minimizing Distance-Based Loss

First-order Proximity

node proximity 有兩種方法可以計算出,一種是使用 first-order proximity,另一藉由觀察邊計算出 empirical probability。

  • node embedding 的方式可以使用 first-order proximity 的公式來計算
    • https://chart.googleapis.com/chart?cht=tx&chl=%24%7Bp%5E%7B(1)%7D%7D(%7Bv_i%7D%2C%7Bv_j%7D)%20%3D%20%5Cfrac%7B1%7D%7B%7B1%20%2B%20%5Cexp%20(-%20%7By_i%7D%5ET%7By_j%7D)%7D%7D%24
  • empirical probability 可以藉由觀察邊來計算
    • https://chart.googleapis.com/chart?cht=tx&chl=%24A_%7Bij%7D%2F%5Csum%20%5Cnolimits%20_%7B%7Be_%7Bij%7D%7D%20%5Cin%20E%7D%20%7BA_%7Bij%7D%7D%24
    • https://chart.googleapis.com/chart?cht=tx&chl=%24A_%7Bij%7D%24 是 edge 的權重

objective function

https://chart.googleapis.com/chart?cht=tx&chl=%7BO%7D_%7Bmin%7D%5E%7B(1)%7D%20%3D%20%20%7B%5Cmin%7D-%20%7B%5Csum%7D_%7B%7Be_%7Bij%7D%7D%20%5Cin%20E%7D%20%7BA_%7Bij%7D%5Clog%20%7Bp%5E%7B(1)%7D%7D(%7Bv_i%7D%2C%7Bv_j%7D)%7D

裡面提到使用 KL divergence 當作距離函數來計算 https://chart.googleapis.com/chart?cht=tx&chl=%24p%5E%7B(1)%7D%24https://chart.googleapis.com/chart?cht=tx&chl=%24%5Chat%7Bp%7D%5E%7B(1)%7D%24 之間的差異,並且省略當中的常數項。
但我找到的 KL divergence 的公式都跟上面的不太像。但是在這篇文章中有到稍微類似的公式...

Second-order Proximity

node proximity 的計算方式

  • second-order proximity 可以就由計算當 https://chart.googleapis.com/chart?cht=tx&chl=%24v_%7Bi%7D%24 出現的情況下,https://chart.googleapis.com/chart?cht=tx&chl=%24v_%7Bj%7D%24 出現的條件機率
    • https://chart.googleapis.com/chart?cht=tx&chl=%24%7Bp%5E%7B(2)%7D%7D(%7Bv_j%7D%7C%7Bv_i%7D)%20%3D%20%5Cfrac%7B%5Cexp%20(y_j%5ET%7By_i%7D)%7D%7B%7B%5Csum%20_%7Bk%20%3D%201%7D%5E%7B%7CV%7C%7D%20%7B%5Cexp%20(y_k%5ET%7By_i%7D)%7D%7D%7D%24
  • empirical probability
    • https://chart.googleapis.com/chart?cht=tx&chl=%24A_%7Bij%7D%2Fd_i%24
    • https://chart.googleapis.com/chart?cht=tx&chl=%24d_%7Bi%7D%24 指的是 out degree

objective function

https://chart.googleapis.com/chart?cht=tx&chl=%24%7BO%7D_%7Bmin%7D%5E%7B(2)%7D%20%3D%20%7B%5Cmin%7D%20-%20%5Csum%20_%7B%7Be_%7Bij%7D%7D%20%5Cin%20E%7D%20%7BA_%7Bij%7D%5Clog%20%7Bp%5E%7B(2)%7D%7D(%7Bv_j%7D%7C%7Bv_i%7D)%7D%24


上一篇
Day-17-Paper Reading -- Graph Embedding - 續
下一篇
Day-19-Paper Reading -- Graph Embedding - 續
系列文
初探 Network Science30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言