iT邦幫忙

2024 iThome 鐵人賽

DAY 29
0
AI/ ML & Data

30 Days of AI Research系列 第 30

[Day 29] Talk like a Graph: Encoding Graphs for Large Language Models

  • 分享至 

  • xImage
  •  

Paper link | Note link | Code link | ICLR 2024

整體想法

在這項研究中,他們首次全面性地探討了將圖結構資料編碼為文本以供大型語言模型(LLM)使用的方式。

摘要

本研究首次全面性地探討了將圖結構資料編碼為文本以供LLM使用的方式。

他們顯示了LLM在圖推理任務中的表現因以下三個基本層次而異:

  1. 圖編碼方法
  2. 圖任務本身的性質
  3. 所考慮的圖的結構。

背景

目前LLM設計與實現方法存在多種限制。

其中最明顯的限制之一是其依賴於非結構化文本,導致模型有時會錯過明顯的邏輯推論或產生錯誤的結論。

另一個限制是LLM的訓練時間受限,因此很難融入有關世界狀態已發生變化的‘新鮮’資訊

圖結構資料是一種非常靈活的資訊表示方式,有望解決這兩個挑戰。

方法

在本研究中,他們首次全面性地探討了將圖結構資料編碼為文本以供LLM使用的推理方式。

以下是他們使用LLM進行圖推理的框架概述。

image

他們提出了一組新的基準測試GraphQA,用於測量LLM在圖資料推理上的表現。

以下是本論文的框架概述,用於通過文本編碼圖結構資料。

image

實驗

以下的實驗旨在了解圖結構資料編碼對其表現的影響。

圖編碼函數的變化

image

提示問題的變化

image

多重關係編碼

image

模型容量與圖推理能力

image


上一篇
[Day 28] Graph Neural Prompting with Large Language Models
下一篇
[Day 30] About AI Research
系列文
30 Days of AI Research31
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言