意思是好的 embedding 方法是可以在 input graph 中重建出原本的 edge(?)
objective function
但因為最佳化的目標是所有節點,所以要把它們都加總起來
有 first-order proximity,當然也有 second-order proximity
objective function
其中 所代表的是在 graph 隨機抽樣出來的路徑集合,並不是所有的路徑都會被考慮進去
node proximity 有兩種方法可以計算出,一種是使用 first-order proximity,另一藉由觀察邊計算出 empirical probability。
objective function
裡面提到使用 KL divergence 當作距離函數來計算 和 之間的差異,並且省略當中的常數項。
但我找到的 KL divergence 的公式都跟上面的不太像。但是在這篇文章中有到稍微類似的公式...
node proximity 的計算方式
objective function