這是用戶在 2025-7-5 5:10 為 https://36kr.com/p/3364265490221063 保存的雙語快照頁面,由 沉浸式翻譯 提供雙語支持。了解如何保存?

首次,用自然語言解釋圖神經網路

新智元·2025 年 07 月 04 日 15:23
Emory 團隊開發 GraphNarrator,首個生成自然語言解釋的 GNN 工具,提升決策透明度。

【導讀】GraphNarrator 是 Emory 大學研究團隊開發的首個為圖神經網络生成自然語言解釋的工具。 通過構造和優化解釋偽標籤,再將這些標籤蒸餾到一個端到端模型中,使模型能直接輸出高品質的自然語言解釋,讓複雜的圖神經網路決策過程變得透明可理解,且在多個真實數據集上驗證了其有效性。

圖神經網路(GNN)已成為處理結構化數據的核心工具,廣泛應用於社交網路、藥物設計、金融風控等場景。

然而,現有 GNN 的決策過程高度複雜,且常常缺乏透明度:為什麼模型做出這樣的預測? 關鍵依據在哪? 這成為阻礙其大規模落地的重要瓶頸。

已有方法多基於「重要子圖提取」或「節點-邊歸因」,如 GNNExplainer、PGExplainer 等,但它們只能輸出結構片段,不具備人類可讀性,且缺乏對文本屬性節點的處理能力(如文獻圖、商品圖)。

Emory 大學的研究團隊提出了首個面向圖神經網路的自然語言解釋生成器 GraphNarrator,首次實現從 GNN 輸入輸出中,生成高品質的自然語言解釋,讓圖神經網路從「黑盒模型」變為「有理有據的決策體」。

論文連結:https://arxiv.org/pdf/2410.15268

代碼連結:https://github.com/pb0316/GraphNarrator

GraphNarrator 聚焦於一種重要的圖類型 Text-Attributed Graphs (TAGs),即節點特徵為自然語言文本(如論文摘要、商品介紹、疾病描述等)。

論文貢獻包括:

提出首個自然語言解釋框架,將 TAG 圖解釋從結構層面擴展至語言層;

統一結構化與語言資訊,橋接圖結構推理與 LLM 理解能力;

開源工具鏈,提供高品質偽標籤構造器+自監督蒸餾方法,便於遷移至任意 GNN 任務。

論文第一作者為 Emory 大學博士生 Bo Pan,長期從事圖學習與可解釋人工智慧方向研究。

共同第一作者為 USC 碩士生 Zhen Xiong 和 Emory 大學博士生 Guanchen Wu,通訊作者為 Emory 計算機系副教授 Liang Zhao。

該研究獲得 ACL2025 主會接收,提出首個面向圖神經網路的自然語言解釋生成器 GraphNarrator。

讓 GNN 開口說話

GraphNarrator 總體包含三步:

1. 構造解釋偽標籤(Pseudo-label Generation)

使用 saliency-based 解釋方法提取「重要文本+關鍵鄰居節點」,形式是每個特徵(節點、邊、token)的重要性。

將這些結構轉化為結構化 Prompt,和問題與預測一起輸入 GPT 模型,生成可解釋偽標籤。

2. 優化偽標籤(Filtering via Expert-Designed Criteria)

通過兩大標準篩選品質更高的偽標籤:

忠實性(faithfulness): 與模型預測一致,研究人員通過互資訊(mutual information)的方式計算生成的文字解釋與輸入、輸出之間的忠實性。

簡潔性(conciseness):資訊濃縮、可讀性強,鼓勵長度更短

GraphNarrator 通過專家反覆運算(Expert Iteration)同時優化這兩個目標,確保教師模型(teacher model)生成高質量的解釋。

3. 訓練最終解說員

將偽標籤蒸餾進一個端到端模型(文章中使用 LlaMA 3.1 8B),直接輸入圖結構與文本,即可自動輸出解釋語句。

忠實、可讀、使用者更愛看!

數據集

研究人員在多個真實世界的 Text-Attributed Graph(TAG)數據集上對 GraphNarrator 進行了系統評估,包括:

Cora:論文引文圖,節點為論文,文本為摘要

DBLP:作者合作圖,文本為論文清單

PubMed:生物醫學文獻圖

對比方法:

各主流 LLM(LLaMA 3.1-8B、GPT-3.5、GPT-4o)Zero-shot 生成解釋

SMV:基於 GPT-4o 的 saliency 解釋範本轉換方法

GraphNarrator (基於 LLaMA 3.1-8B)

評估目標是檢驗 GraphNarrator 生成的自然語言解釋是否忠實、準確、可讀、受用戶喜愛

評測結果

研究人員通過自動方式和人工方式評測該方法生成的解釋品質。

自動評測中,GraphNarrator 在 Simulatability 上全面領先(+8‐10%),證明解釋內容高度還原了 GNN 預測;  

PMI-10%覆蓋率提升顯著(平均+8.2%),表明能捕捉到最重要的 token;  Brevity(解釋長度/輸入長度)下降超 13%,驗證其「短小精鍊」能力。

人工評測中,有計算語言學背景的評審從易讀性、洞察力、結構資訊、語義資訊 4 個方向打分(1–7 分制)。

結果表明各項均優於 GPT-4o、SMV,尤其在結構理解上優勢明顯(+33%),解釋更流暢、邏輯清晰,獲得真實使用者的更高信任。

參考資料:

https://arxiv.org/pdf/2410.15268 

本文來自微信公眾號 “新智元”,編輯:LRST ,36 氪經授權發佈。

+1
34

好文章,需要你的鼓勵

參與評論
評論千萬條,友善第一條
后參與討論
提交評論0/1000
36氪

企服圈子

軟體選型經驗交流社區
36氪企服點評訂閱號
36氪企服點評服務號

企服軟體推薦

找軟體,先查用戶評分榜 查看
顧問1對1推薦軟體免費服務 體驗

下一篇

MiniMax 逆著商湯過河閆俊傑的反向商湯烙印

13小時前

36 氪 APP讓一部分人先看到未來
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业