iT邦幫忙

2024 iThome 鐵人賽

DAY 28
0
AI/ ML & Data

30 Days of AI Research系列 第 29

[Day 28] Graph Neural Prompting with Large Language Models

  • 分享至 

  • xImage
  •  

Paper link | Note link | Code link | AAAI 2024

整體想法

他們提出了「圖神經提示」(Graph Neural Prompting, GNP),這是一種新穎的即插即用方法,用於幫助預訓練的大型語言模型(LLMs)從知識圖譜(KGs)中學習有益的知識。

摘要

為了減少大型語言模型的局限性,現有的工作使用基於實體的知識來增強預訓練的LLMs。

例如,檢索增強生成(retrieval-augmented generation)仍然是一個未解決的問題,尤其是在知識圖譜(KGs)方面。

在這篇論文中,他們提出了圖神經提示(Graph Neural Prompting, GNP),這是一種即插即用的方法,旨在幫助預訓練的LLMs從知識圖譜中獲取有益的知識。

背景

知識圖譜(KGs)儲存了大量的事實,並作為一種系統化的知識呈現方式。

現有的方法通過設計定制的模型架構,將KGs與語言模型結合起來,以同時處理文本數據和KGs。

然而,由於語言模型的參數規模,聯合訓練模型變得具有挑戰性。

一種直接結合KGs和語言模型優勢的方法是將KG三元組輸入到LLMs中。

然而,這種方法可能會引入大量噪音,因為KGs可能包含各種無關的上下文。

那麼,我們能否從KGs中學習有益的知識,並將其整合到預訓練的LLMs中呢?

方法

他們提出了一種方法,通過檢索並編碼相關的基於實體的知識,來生成一個圖神經提示(Graph Neural Prompt)。

該提示是一個嵌入向量,可以用來向LLMs提供指導和指令。

給定一個問題 https://ithelp.ithome.com.tw/upload/images/20240828/20152821Q6fq0c8S8O.png,一組答案選項 https://ithelp.ithome.com.tw/upload/images/20240828/20152821TqSss83RkZ.png,以及一個可選的上下文 https://ithelp.ithome.com.tw/upload/images/20240828/20152821KAPjsl09ED.png。真實標籤 https://ithelp.ithome.com.tw/upload/images/20240828/20152821FOzcRYOUjr.png 是正確答案。

我們需要設計一個模型 https://ithelp.ithome.com.tw/upload/images/20240828/20152821Ka1sWmjbpF.png 來選擇最佳選項以回答問題。此外,這篇論文使用知識圖譜 https://ithelp.ithome.com.tw/upload/images/20240828/20152821bed96Hkgbs.png 來提供外部知識並幫助模型回答問題。

image

步驟如下:

  1. 將上下文 https://ithelp.ithome.com.tw/upload/images/20240828/20152821ntCh3YRl7P.png、問題 https://ithelp.ithome.com.tw/upload/images/20240828/201528217aqZdrbNTe.png 和答案選項 https://ithelp.ithome.com.tw/upload/images/20240828/201528219ti8YgTSGf.png 的連接內容標記為輸入文本序列 https://ithelp.ithome.com.tw/upload/images/20240828/20152821c0GFRzYQMC.png
  2. 設計一系列提示標記 https://ithelp.ithome.com.tw/upload/images/20240828/20152821KtevFXNTXX.png,並將其附加到輸入標記 https://ithelp.ithome.com.tw/upload/images/20240828/20152821KeBuNk3pkZ.png 上。將其作為LLM模型的輸入,以生成預測 https://ithelp.ithome.com.tw/upload/images/20240828/20152821VRiAIke5O1.png
  3. 模型可以通過標準的最大似然損失進行下游任務適應訓練,使用教師強制和交叉熵損失 https://ithelp.ithome.com.tw/upload/images/20240828/20152821iglqJC9OJr.png

實驗

知識圖譜與數據集

  • 通用領域(常識推理)
  • 生物醫學領域(生物醫學推理)

兩種設定

  • LLM Frozen(凍結模型參數)
  • LLM Tuned(調整模型參數)

基線方法

  • LLM-only(僅使用LLM)
  • 硬提示(三種提示設計方法)
  • KG展平(KG Flattening)
  • 一跳(OH)和兩跳(TH)(One-hop 和 Two-hop)
  • 提示微調(軟提示)

下表顯示了在常識推理和生物醫學推理任務上的整體實驗結果。

image

下圖顯示了在LLM Frozen和LLM Tuned設定下的結果比較。

image


上一篇
[Day 27] StructGPT: A General Framework for Large Language Model to Reason over Structured Data
下一篇
[Day 29] Talk like a Graph: Encoding Graphs for Large Language Models
系列文
30 Days of AI Research30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言