ME News 消息,4 月 11 日(UTC+8),中國科學院信息工程研究所研究團隊在 ACL 2026 主會發表論文,提出面向長期對話的超圖記憶架構 HyperMem,在長對話基準測試 LoCoMo 上以 92.73% 的評估準確率刷新當前最優水平。現有 RAG 及圖結構記憶方案多依賴兩兩配對關係,難以捕捉多元素間的高階關聯,導致檢索內容碎片化。HyperMem 通過引入超圖結構,將對話記憶分為話題、片段、事實三個層級,並以超邊將相關片段及事實統一歸組,配合混合詞法-語義索引與從粗到細的檢索策略,實現對高階關聯的精準高效檢索。實驗結果顯示,在長對話基準 LoCoMo 上,HyperMem 在 LLM-as-a-judge 評測中達到 92.73% 的準確率,達到當前最優水平(SOTA),驗證了其在長期對話一致性與個性化建模中的有效性。該研究為對話智能體在長期交互中保持上下文連貫、追蹤持續任務及提供個性化服務提供了新思路。論文已發布於 arXiv(編號 2604.08256)。(來源:BlockBeats)