文/陳根
具有代替和指示作用的代詞,作為實詞在句法和文本中具有重要作用。代詞令語言簡潔且更富有變化性。
對于人類來說,識別代詞指代對象并不算困難,憑借對上下文和對句子的理解就可以找出代詞的指代對象。然而,對于人工智能來說,卻并不容易機器對文本的理解通常需要核心性解析。換言之,能否準(zhǔn)確搜索、追蹤、分析代詞與實體之間的關(guān)聯(lián),對于人工智能能否準(zhǔn)確理解文本內(nèi)容至關(guān)重要。
這種能力被稱為共指消解(Conference Resolution),是自然語言處理(NLP)領(lǐng)域的重要研究方向,即通過追蹤長句、段落、文章中的代詞,找到其對應(yīng)的指代對象或內(nèi)容。
盡管目前有很多體量龐大的眾包數(shù)據(jù)集,但它們主要考察模型理解局部語義以及謂詞參數(shù)結(jié)構(gòu),涉及共指消解的問題很少見。
針對這一問題,艾倫人工智能研究所的研究團隊最近公布了一個新的眾包數(shù)據(jù)集,被稱為為QUOREF,里面包含超過 2400 個廣度選擇問題,旨在專門考察模型的共指消解能力。這些問題需要在維基百科的 4.7K 多個英文段落中分析并找到各個實體的指代對象。
作為專門測試共指消解能力的數(shù)據(jù)集,QUOREF 足以證明目前常見的機器閱讀理解模型仍有很大的進步空間。通過分析錯誤答案背后的原因,NLP 研究者才能更好地改進模型,實現(xiàn)在復(fù)雜、多元、大跨度的文本內(nèi)容中準(zhǔn)確對應(yīng)實體與代詞,做到真正意義上的的語義理解。