不同 graph embedding 的方法主要的差異在於他們希望保留哪樣的 graph property。
laplacian eigenmaps 的重點概念是希望儘可能地保留節點間的相似度,也就是說,如果兩個節點在原始圖中相似,那麼在嵌入空間中也希望它們的嵌入向量相似。如果它們最後嵌入的結果較遠,那麼就會給予 penalty。
objective function
- 最佳嵌入向量
- node 跟 node 之間的相似程度
但是也有人直接嘗試分解 proximity matrix,讓節點之間的關係可以用更簡單的方式來表示。
objective function
簡單來說就是隨機走訪 graph 中的 node(取樣的概念),然後再把最後的結果丟進去訓練。
沒有使用 random walk 的方法,直接使用深度學習的方法來做。通常會應用像是 autoencoder、deep neural network 或是 CNN 相關的概念。
目前有哪些 Graph Embedding