「清華大學」知識圖譜從哪裡來:實體關係抽取的現狀與未來

作者:韓旭、高天宇、劉知遠(本文轉自清華大學劉知遠老師zhihu個人專欄)

最近幾年深度學習引發的人工智慧浪潮席捲全球,在互聯網普及帶來的海量數據資源和摩爾定律支配下飛速提升的算力資源雙重加持下,深度學習深入影響了自然語言處理的各個方向,極大推動了自然語言處理的發展。

來到2019年的今天,深度學習的諸多局限性也慢慢得到廣泛認知。對於自然語言處理而言,要做到精細深度的語義理解,單純依靠數據標註與算力投入無法解決本質問題。如果沒有先驗知識的支持,「中國的乒乓球誰都打不過」與「中國的足球誰都打不過」,在計算機看來語義上並沒有巨大差異,而實際上兩句中的「打不過」意思正好相反。因此,融入知識來進行知識指導的自然語言處理,是通向精細而深度的語言理解的必由之路。然而,這些知識又從哪裡來呢?這就涉及到人工智慧的一個關鍵研究問題——知識獲取。

知識圖

現有大型知識圖譜,諸如Wikidata、Yago、DBpedia,富含海量世界知識,並以結構化形式存儲。如下圖所示,每個節點代表現實世界中的某個實體,它們的連邊上標記實體間的關係。這樣,美國作家馬克·吐溫的相關知識就以結構化的形式記錄下來。

目前,這些結構化的知識已被廣泛應用於搜索引擎、問答系統等自然語言處理應用中。但與現實世界快速增長的知識量相比,知識圖譜覆蓋度仍力有未逮。由於知識規模巨大而人工標註昂貴,這些新知識單靠人力標註添加幾無可能完成。為了儘可能及時準確地為知識圖譜增添更加豐富的世界知識,研究者們努力探索高效自動獲取世界知識的辦法,即實體關係抽取技術。

具體來說,給定一個句子和其中出現的實體,實體關係抽取模型需要根據句子語義信息推測實體間的關係。例如,給定句子:「清華大學坐落於北京近郊」以及實體「清華大學」與「北京」,模型可以通過語義得到「位於」的關係,並最終抽取出(清華大學,位於,北京)的知識三元組。

實體關係抽取是一個經典任務,在過去的20多年裡都有持續研究開展,特徵工程、核方法、圖模型曾被廣泛應用其中,取得了一些階段性的成果。隨著深度學習時代來臨,神經網路模型則為實體關係抽取帶來了新的突破。

神經網路關係抽取模型

面向自然語言文本序列已經有很多神經網路類型,例如循環神經網路(RNN、LSTM)、卷積神經網路(CNN)和Transformer等,這些模型都可以通過適當改造用於關係抽取。最初,工作 [1,2] 首次提出使用CNN對句子語義進行編碼,用於關係分類,比非神經網路方法比性能顯著提升;工作 [3,4] 將RNN與LSTM用於關係抽取;此外,工作 [5] 提出採用遞歸的神經網路對句子的語法分析樹建模,試圖在提取語義特徵的同時考慮句子的詞法和句法特徵,這個想法也被不少後續工作的進一步探索。這裡,我們列出一個表格,總結各類典型神經網路在基準測試數據集合SemEval-2010 Task-8 [6] 上的效果。

從上表可以看出,這些神經網路模型均取得了優異的實驗結果,且相互之間沒有顯著的性能差異。這是否意味著關係抽取問題就此解決了呢?實際上並非如此。SemEval-2010 Task-8的任務設定為,對預先定義好的關係類別標註大量的訓練和測試樣例,樣例都是相對簡單的短句,而且每種關係的樣例分布也比較均勻。然而,實際應用中往往面臨很多挑戰:

數據規模問題:人工精準地標註句子級別的數據代價十分高昂,需要耗費大量的時間和人力。在實際場景中,面向數以千計的關係、數以千萬計的實體對、以及數以億計的句子,依靠人工標註訓練數據幾乎是不可能完成的任務。

學習能力問題:在實際情況下,實體間關係和實體對的出現頻率往往服從長尾分布,存在大量的樣例較少的關係或實體對。神經網路模型的效果需要依賴大規模標註數據來保證,存在」舉十反一「的問題。如何提高深度模型的學習能力,實現」舉一反三「,是關係抽取需要解決的問題。

複雜語境問題:現有模型主要從單個句子中抽取實體間關係,要求句子必須同時包含兩個實體。實際上,大量的實體間關係往往表現在一篇文檔的多個句子中,甚至在多個文檔中。如何在更複雜的語境下進行關係抽取,也是關係抽取面臨的問題。

開放關係問題:現有任務設定一般假設有預先定義好的封閉關係集合,將任務轉換為關係分類問題。這樣的話,文本中蘊含的實體間的新型關係無法被有效獲取。如何利用深度學習模型自動發現實體間的新型關係,實現開放關係抽取,仍然是一個」開放「問題。

所以說,SemEval-2010 Task-8這樣的理想設定與實際場景存在巨大鴻溝,僅依靠神經網路提取單句語義特徵,難以應對關係抽取的各種複雜需求和挑戰。我們亟需探索更新穎的關係抽取框架,獲取更大規模的訓練數據,具備更高效的學習能力,善於理解複雜的文檔級語境信息,並能方便地擴展至開放關係抽取。

我們認為,這四個方面構成了實體關係抽取需要進一步探索的主要方向。接下來,我們分別介紹這四個方面的發展現狀和挑戰,以及我們的一些思考和努力。

更大規模的訓練數據

神經網路關係抽取需要大量的訓練數據,但是人工標註這些訓練數據非常費時昂貴。為了自動獲取更多的訓練數據訓練模型,工作 [16] 提出了遠程監督(Distant Supervision)的思想,將純文本與現有知識圖譜進行對齊,能夠自動標註大規模訓練數據。

遠程監督的思想並不複雜,具體來說:如果兩個實體在知識圖譜中被標記為某個關係,那麼我們就認為同時包含這兩個實體的所有句子也在表達這種關係。再以(清華大學,位於,北京)為例,我們會把同時包含「清華大學」和「北京」兩個實體的所有句子,都視為「位於」這個關係的訓練樣例。

遠程監督的這種啟發式標註規則是把雙刃劍,它是自動標註訓練數據的有效策略,但其過強的設定不可避免地產生錯誤標註。例如對於知識圖譜中(清華大學,校長,邱勇)這個三元組事實,句子「邱勇擔任清華大學校長」可以反映「清華大學」與「邱勇」之間「校長」的關係;但是句子「邱勇考入清華大學化學與化學工程系」以及「邱勇擔任清華大學黨委常委」並不表達「校長」關係,但卻會被遠程監督的啟發式規則錯誤地標註為「校長」關係的訓練實例。

雖然遠程監督思想非常簡單也存在很多問題,不過它為更多收集訓練數據開啟了新的紀元。受到這個思路的啟發,很多學者積極考慮如何儘可能排除遠程監督數據中的噪音標註的干擾。從2015年開始,基於遠程監督與降噪機制的神經關係抽取模型得到了長足的發展,工作 [17] 引入了多實例學習方法,利用包含同一實體對的所有實例來共同預測實體間關係。我們課題組林衍凱等人工作 [19] 提出句子級別注意力機制,對不同的實例賦予不同的權重,用以降低噪音實例造成的影響。工作 [20] 引入對抗訓練來提升模型對噪音數據的抵抗能力。工作 [21] 則構建了一套強化學習機制來篩除噪音數據,並利用剩餘的數據來訓練模型。

總結來說,已有對遠程監督的降噪方法可以兼顧了關係抽取的魯棒性與有效性,也具有較強的可操作性和實用性。不過,使用已有知識圖譜對齊文本來獲取數據訓練關係抽取模型,再利用該模型來抽取知識加入知識圖譜,本身就有一種雞生蛋與蛋生雞的味道。不完善的知識圖譜對齊所得到的文本訓練數據也將是不完善的,對那些長尾知識而言,仍難以通過這種遠程監督機制來得到訓練實例。如何提出更有效的機制來高效獲取高質量、高覆蓋、高平衡的訓練數據,仍然是一個值得深入思考的問題。

更高效的學習能力

即使通過遠程監督等辦法能夠自動獲取高質量的訓練數據,由於真實場景中關係和實體對的長尾分布特點,絕大部分的關係和實體對的可用樣例仍然較少。而且,對於醫療、金融等專業領域的專門關係,受限於數據規模的問題可用樣例也很有限。而神經網路模型作為典型的data-hungry技術,在訓練樣例過少時性能會受到極大影響。因此,研究者們希望探索有效提升模型學習能力的方法,以更好地利用有限訓練樣例取得滿意的抽取性能。

實際上,人類可以通過少量樣本快速學習知識,具有「舉一反三」的能力。為了探索深度學習和機器學習「舉一反三」的能力,提出了少次學習(Few-shot learning)任務。通過設計少次學習機制,模型能夠利用從過往數據中學到的泛化知識,結合新類型數據的少量訓練樣本,實現快速遷移學習,具有一定的舉一反三能力。

過去少次學習研究主要集中於計算機視覺領域,自然語言處理領域還少有探索。我們課題組韓旭同學等的工作 [21] 首次將少次學習引入到關係抽取,構建了少次關係抽取數據集FewRel,希望推動驅動自然語言處理特別是關係抽取任務的少次學習研究。如下圖所示,關係抽取少次學習問題僅為每種關係提供極少量樣例(如3-5個),要求儘可能提高測試樣例上的關係分類效果。

FewRel論文工作初步嘗試了幾個代表性少次學習方法包括度量學習(Metric learning)、元學習(Meta learning)、參數預測(Parameter prediction)等,評測表明即使是效果最佳的原型網路(Prototypical Networks)模型,在少次關係抽取上的性能仍與人類表現相去甚遠。

為了更好解決遠程監督關係抽取的少次學習問題,我們課題組的高天宇同學等的工作 [22] 提出了基於混合注意力機制的原型網路,同時考慮實例級別和特徵級別的注意力機制,在減少噪音標註影響的同時,能更好地關注到句中的有用特徵,實現高效少次學習。工作 [23] 提出多級匹配和整合結構,充分學習訓練樣例之間的潛在關聯,儘可能挖掘為數不多的樣例中的潛在信息。工作 [24] 則採用了預訓練語言模型BERT來處理關係抽取中的少次學習問題,基於海量無監督數據訓練的BERT,能夠為少次學習模型提供有效的語義特徵,在FewRel數據上取得了超過人類關係分類的水平。

在對少次學習關係抽取探究的過程中,課題組的高天宇同學等進一步發現兩個長期被忽視的方面 [25]:要將少次學習模型用於生產環境中,應具備從資源豐富領域遷移到資源匱乏領域(low-resource domains)的能力,同時還應具備檢測句子是否真的在表達某種預定義關係或者沒有表達任何關係的能力。為此他們提出了FewRel 2.0,在原版數據集FewRel的基礎上增加了以下兩大挑戰:領域遷移(domain adaptation)和「以上都不是」檢測(none-of-the-above detection)。

對於領域遷移挑戰,FewlRel 2.0 採集了大量醫療領域的數據並進行標註,要求關係抽取模型在原語料進行訓練後,還可以在這些新領域語料上進行少次學習。對於「以上都不是」檢測,FewRel 2.0 在原N-way K-shot設定(給定N個新類型,每個類型給定K個訓練樣本)上,添加了一個「以上都不是」選項,大大增加了分類和檢測難度。

初步實驗發現,以往有效的模型(包括基於BERT的模型)在這兩大挑戰任務均有顯著性能下降。儘管高天宇同學等在FewRel 2.0論文中也嘗試了一些可能的解決思路:例如對於領域遷移嘗試了經典的對抗學習方法,模型性能得到了一定的提升;對於「以上都不是」檢測,提出了基於BERT next sentence prediction task的BERT-PAIR模型,可以在」以上都不是」挑戰取得一點效果。但這兩大挑戰依然需要更多創新探索。

總結來說,探索少次學習關係抽取,讓關係抽取模型具備更強大高效的學習能力,還是一個非常新興的研究方向,特別是面向關係抽取的少次學習問題,與其他領域的少次學習問題相比,具有自身獨有的特點與挑戰。不論是基於已有少次學習技術作出適於NLP和關係抽取的改進,還是提出全新的適用於關係抽取的少次學習模型,都將最大化地利用少量標註數據,推動關係抽取技術的落地實用。

更複雜的文本語境

現有關係抽取工作主要聚焦於句子級關係抽取,即根據句內信息進行關係抽取,各類神經網路模型也擅長編碼句子級語義信息,在很多公開評測數據能夠取得最佳效果。而在實際場景中,大量的實體間關係是通過多個句子表達的。如下圖所示,文本中提到多個實體,並表現出複雜的相互關聯。根據從維基百科採樣的人工標註數據的統計表明,至少40%的實體關係事實只能從多個句子中聯合獲取。為了實現多個實體間的跨句關係抽取,需要對文檔中的多個句子進行閱讀推理,這顯然超出了句子級關係抽取方法的能力範圍。因此,進行文檔級關係抽取勢在必行。

文檔級關係抽取研究需要大規模人工標註數據集來進行訓練和評測。目前文檔級關係抽取數據集還很少。工作 [26,27] 構建了兩個遠程監督的數據集,由於沒有進行人工標註因此評測結果不太可靠。BC5CDR [28] 是人工標註的文檔級關係抽取數據集,由1,500篇PubMed文檔構成是生物醫學特定領域,且僅考慮「化學誘導的疾病」關係,不一定適合用來探索文檔級關係抽取的通用方法。工作 [29] 提出使用閱讀理解技術回答問題的方式從文檔中提取實體關係事實,這些問題從」實體-關係「對轉換而來。由於該工作數據集是針對這種方法量身定製的,也不那麼適用於探索文檔級關係抽取的通用方法。這些數據集或者僅具有少量人工標註的關係和實體,或者存在來自遠程監督的噪音標註,或者服務於特定領域或方法,有這樣或那樣的限制。

為了推動文檔級關係抽取的研究,課題組姚遠同學等 [30] 提出了DocRED數據集,是一個大規模的人工標註的文檔級關係抽取數據集,基於維基百科正文和WikiData知識圖譜構建而成,包含5,053篇維基百科文檔,132,375 個實體和53,554 個實體關係事實,是現有最大的人工標註的文檔級關係抽取數據集。如下圖所示,文檔級關係抽取任務要求模型具有強大的模式識別、邏輯推理、指代推理和常識推理能力,這些方面都亟待更多長期的研究探索。

更開放的關係類型

現有關係抽取工作一般假設有預先定義好的封閉關係集合,將任務轉換為關係分類問題。然而在開放域的真實關係抽取場景中,文本中包含大量開放的實體關係,關係種類繁多,而且關係數量也會不斷增長,遠超過人為定義的關係種類數量。在這種情況下,傳統關係分類模型無法有效獲取文本中蘊含的實體間的新型關係。如何利用深度學習模型自動發現實體間的新型關係,實現開放關係抽取,仍然是一個」開放「問題。

為了實現面向開放領域的開放關係抽取,研究提出開放關係抽取(Open Relation Extraction,OpenRE)任務,致力於從開放文本抽取實體間的任意關係事實。開放關係抽取涉及三方面的「開放」:首先是抽取關係種類的開放,與傳統關係抽取不同,它希望抽取所有已知和未知的關係;其次是測試語料的開放,例如新聞、醫療等不同領域,其文本各有不同特點,需要探索跨域魯棒的演算法;第三是訓練語料的開放,為了獲得儘可能好的開放關係抽取模型,有必要充分利用現有各類標註數據,包括精標註、遠程監督標註數據等,而且不同訓練數據集的關係定義和分布也有所不同,需要同時利用好多源數據。

在前深度學習時代,研究者也有探索開放信息抽取(Open Information Extraction,OpenIE)任務。開放關係抽取可以看做OpenIE的特例。當時OpenIE主要通過無監督的統計學習方法實現,如Snowball演算法等。雖然這些演算法對於不同數據有較好的魯棒性,但精度往往較低,距離實用落地仍然相距甚遠。

最近,課題組吳睿東同學等的工作 [31] 提出了一種有監督的開放關係抽取框架,可以通過」關係孿生網路「(Relation Siamese Network,RSN)實現有監督和弱監督模式的自由切換,從而能夠同時利用預定義關係的有監督數據和開放文本中新關係的無監督數據,來共同學習不同關係事實的語義相似度。具體來說,關係孿生網路RSN採用孿生網路結構,從預定義關係的標註數據中學習關係樣本的深度語義特徵和相互間的語義相似度,可用於計算包含開放關係文本的語義相似度。而且,RSN還使用了條件熵最小化和虛擬對抗訓練兩種半監督學習方法進一步利用無標註的開放關係文本數據,進一步提高開放關係抽取的穩定性和泛化能力。基於RSN計算的開放關係相似度計算結果,模型可以在開放域對文本關係進行聚類,從而歸納出新型關係。

課題組高天宇同學等人工作 [32] 則從另一個角度出發,對於開放域的特定新型關係,只需要提供少量精確的實例作為種子,就可以利用預訓練的關係孿生網路進行滾雪球(Neural SnowBall),從大量無標註文本中歸納出該新型關係的更多實例,不斷迭代訓練出適用於新型關係的關係抽取模型。

總結來說,開放域關係抽取在前深度學習時代取得了一些成效,但如何在深度學習時代與神經網路模型優勢相結合,有力拓展神經網路關係抽取模型的泛化能力,值得更多深入探索。

總結

為了更及時地擴展知識圖譜,自動從海量數據中獲取新的世界知識已成為必由之路。以實體關係抽取為代表的知識獲取技術已經取得了一些成果,特別是近年來深度學習模型極大地推動了關係抽取的發展。但是,與實際場景的關係抽取複雜挑戰的需求相比,現有技術仍有較大的局限性。我們亟需從實際場景需求出發,解決訓練數據獲取、少次學習能力、複雜文本語境、開放關係建模等挑戰問題,建立有效而魯棒的關係抽取系統,這也是實體關係抽取任務需要繼續努力的方向。

我們課題組從2016年開始耕耘實體關係抽取任務,先後有林衍凱、韓旭、姚遠、曾文遠、張正彥、朱昊、於鵬飛、於志竟成、高天宇、王曉智、吳睿東等同學在多方面開展了研究工作。去年在韓旭和高天宇等同學的努力下,發布了OpenNRE工具包 [33],經過近兩年來的不斷改進,涵蓋有監督關係抽取、遠程監督關係抽取、少次學習關係抽取和文檔級關係抽取等豐富場景。此外,也花費大量科研經費標註了FewRel (1.0和2.0)和DocRED等數據集,旨在推動相關方向的研究。

本文總結了我們對實體關係抽取現狀、挑戰和未來發展方向的認識,以及我們在這些方面做出的努力,希望能夠引起大家的興趣,對大家有些幫助。期待更多學者和同學加入到這個領域研究中來。當然,本文沒有提及一個重要挑戰,即以事件抽取為代表的複雜結構的知識獲取,未來有機會我們再專文探討。

限於個人水平,難免有偏頗舛誤之處,還請大家在評論中不吝指出,我們努力改進。需要說明的是,我們沒想把這篇文章寫成嚴謹的學術論文,所以沒有面面俱到把每個方向的所有工作都介紹清楚,如有重要遺漏,還請批評指正。

廣告時間

圖窮匕見,讀者中如果有希望找自然語言處理和知識圖譜方面實習或工作的同學,歡迎聯繫Patrick Li(patrickpli@tencent.com),讓我們共同努力,開展有意思有意義的研究工作。

作者簡介

韓旭,清華大學計算機科學與技術系博士三年級同學,主要研究方向為自然語言處理、知識圖譜、信息抽取。在人工智慧領域國際著名會議AAAI、ACL、EMNLP、COLING、NAACL上發表多篇論文,是OpenKE、OpenNRE等開源項目的開發者之一。主頁:https://thucsthanxu13.github.io/

高天宇,清華大學計算機系大四本科生,主要研究方向為自然語言處理、知識圖譜、關係抽取。在人工智慧領域國際著名會議AAAI、EMNLP上發表多篇論文,是OpenNRE等開源項目的主要開發者之一。主頁:https://gaotianyu.xyz/about/

劉知遠,清華大學計算機系副教授、博士生導師。主要研究方向為表示學習、知識圖譜和社會計算。主頁:http://nlp.csai.tsinghua.edu.cn/~lzy/

參考文獻

[1] ChunYang Liu, WenBo Sun, WenHan Chao, Wanxiang Che. Convolution Neural Network for Relation Extraction. The 9th International Conference on Advanced Data Mining and Applications (ADMA 2013).

[2] Daojian Zeng, Kang Liu, Siwei Lai, Guangyou Zhou, Jun Zhao. Relation Classification via Convolutional Deep Neural Network. The 25th International Conference on Computational Linguistics (COLING 2014).

[3] Dongxu Zhang, Dong Wang. Relation Classification via Recurrent Neural Network. arXiv preprint arXiv:1508.01006 (2015).

[4] Peng Zhou, Wei Shi, Jun Tian, Zhenyu Qi, Bingchen Li, Hongwei Hao, Bo Xu. Attention-Based Bidirectional Long Short-Term Memory Networks for Relation Classification. The 54th Annual Meeting of the Association for Computational Linguistics (ACL 2016).

[5] Richard Socher, Brody Huval, Christopher D. Manning, Andrew Y. Ng. Semantic Compositionality through Recursive Matrix-Vector Spaces. The 2012 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning (EMNLP-CoNLL 2012).

[6] Iris Hendrickx, Su Nam Kim, Zornitsa Kozareva, Preslav Nakov, Diarmuid ó Séaghdha, Sebastian Padó, Marco Pennacchiotti, Lorenza Romano, Stan Szpakowicz. SemEval-2010 Task 8:Multi-Way Classification of Semantic Relations between Pairs of Nominals. The 5th International Workshop on Semantic Evaluation (SEMEVAL 2010).

[7] Thien Huu Nguyen, Ralph Grishman. Relation Extraction:Perspective from Convolutional Neural Networks. The 1st Workshop on Vector Space Modeling for Natural Language Processing (LatentVar 2015).

[8] Cícero dos Santos, Bing Xiang, Bowen Zhou. Classifying Relations by Ranking with Convolutional Neural Networks. The 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (ACL-IJCNLP 2015).

[9] Shu Zhang, Dequan Zheng, Xinchen Hu, Ming Yang. Bidirectional Long Short-Term Memory Networks for Relation Classification. The 29th Pacific Asia Conference on Language, Information and Computation (PACLIC 2015).

[10] Minguang Xiao, Cong Liu. Semantic Relation Classification via Hierarchical Recurrent Neural Network with Attention. The 26th International Conference on Computational Linguistics (COLING 2016).

[11] Kun Xu, Yansong Feng, Songfang Huang, Dongyan Zhao. Semantic Relation Classification via Convolutional Neural Networks with Simple Negative Sampling. The 2015 Conference on Empirical Methods in Natural Language Processing (EMNLP 2015).

[12] Yan Xu, Lili Mou, Ge Li, Yunchuan Chen, Hao Peng, Zhi Jin. Classifying Relations via Long Short Term Memory Networks along Shortest Dependency Paths. The 2015 Conference on Empirical Methods in Natural Language Processing (EMNLP 2015).

[13] Yang Liu, Furu Wei, Sujian Li, Heng Ji, Ming Zhou, Houfeng Wang. A Dependency-Based Neural Network for Relation Classification. The 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (ACL-IJCNLP 2015).

[14] Yan Xu, Ran Jia, Lili Mou, Ge Li, Yunchuan Chen, Yangyang Lu, Zhi Jin. Improved Relation Classification by Deep Recurrent Neural Networks with Data Augmentation. The 26th International Conference on Computational Linguistics (COLING 2016).

[15] Rui Cai, Xiaodong Zhang, Houfeng Wang. Bidirectional Recurrent Convolutional Neural Network for Relation Classification. The 54th Annual Meeting of the Association for Computational Linguistics (ACL 2016).

[16] Mike Mintz, Steven Bills, Rion Snow, Daniel Jurafsky. Distant Supervision for Relation Extraction without Labeled Data. The 47th Annual Meeting of the Association for Computational Linguistics and the 4th International Joint Conference on Natural Language Processing (ACL-IJCNLP 2009).

[17] Daojian Zeng, Kang Liu, Yubo Chen, Jun Zhao. Distant Supervision for Relation Extraction via Piecewise Convolutional Neural Networks. The 2015 Conference on Empirical Methods in Natural Language Processing (EMNLP 2015).

[18] Yankai Lin, Shiqi Shen, Zhiyuan Liu, Huanbo Luan, Maosong Sun. Neural Relation Extraction with Selective Attention over Instances. The 54th Annual Meeting of the Association for Computational Linguistics (ACL 2016).

[19] Yi Wu, David Bamman, Stuart Russell. Adversarial Training for Relation Extraction. The 2017 Conference on Empirical Methods in Natural Language Processing (EMNLP 2017).

[20] Jun Feng, Minlie Huang, Li Zhao, Yang Yang, Xiaoyan Zhu. Reinforcement Learning for Relation Classification from Noisy Data. The 32th AAAI Conference on Artificial Intelligence (AAAI 2018).

[21] Xu Han, Hao Zhu, Pengfei Yu, Ziyun Wang, Yuan Yao, Zhiyuan Liu, Maosong Sun. FewRel:A Large-Scale Supervised Few-Shot Relation Classification Dataset with State-of-the-Art Evaluation. The 2018 Conference on Empirical Methods in Natural Language Processing (EMNLP 2018).

[22] Tianyu Gao, Xu Han, Zhiyuan Liu, Maosong Sun. Hybrid Attention-based Prototypical Networks for Noisy Few-Shot Relation Classification. The 33th AAAI Conference on Artificial Intelligence (AAAI 2019).

[23] Zhi-Xiu Ye, Zhen-Hua Ling. Multi-Level Matching and Aggregation Network for Few-Shot Relation Classification. The 57th Annual Meeting of the Association for Computational Linguistics (ACL 2019).

[24] Livio Baldini Soares, Nicholas FitzGerald, Jeffrey Ling, Tom Kwiatkowski. Matching the Blanks:Distributional Similarity for Relation Learning. The 57th Annual Meeting of the Association for Computational Linguistics (ACL 2019).

[25] Tianyu Gao, Xu Han, Hao Zhu, Zhiyuan Liu, Peng Li, Maosong Sun, Jie Zhou. FewRel 2.0:Towards More Challenging Few-Shot Relation Classification. 2019 Conference on Empirical Methods in Natural Language Processing and 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP 2019).

[26] Chris Quirk, Hoifung Poon. Distant Supervision for Relation Extraction beyond the Sentence Boundary. The 15th Conference of the European Chapter of the Association for Computational Linguistics (EACL 2017).

[27] Nanyun Peng, Hoifung Poon, Chris Quirk, Kristina Toutanova, Wen-tau Yih. Cross-Sentence N-ary Relation Extraction with Graph LSTMs. Transactions of the Association for Computational Linguistics (TACL 2017).

[28] Chih-Hsuan Wei, Yifan Peng, Robert Leaman, Allan Peter Davis, Carolyn J. Mattingly, Jiao Li, Thomas C. Wiegers, Zhiyong Lu. Overview of the BioCreative V Chemical Disease Relation (CDR) Task. The 5th BioCreative Challenge Evaluation Workshop (BioC 2015).

[29] Omer Levy, Minjoon Seo, Eunsol Choi, Luke Zettlemoyer. Zero-Shot Relation Extraction via Reading Comprehension. The 21st Conference on Computational Natural Language Learning (CoNLL 2017).

[30] Yuan Yao, Deming Ye, Peng Li, Xu Han, Yankai Lin, Zhenghao Liu, Zhiyuan Liu, Lixin Huang, Jie Zhou, Maosong Sun. DocRED:A Large-Scale Document-Level Relation Extraction Dataset. The 57th Annual Meeting of the Association for Computational Linguistics (ACL 2019).

[31] Ruidong Wu, Yuan Yao, Xu Han, Ruobing Xie, Zhiyuan Liu, Fen Lin, Leyu Lin, Maosong Sun. Open Relation Extraction:Relational Knowledge Transfer from Supervised Data to Unsupervised Data. 2019 Conference on Empirical Methods in Natural Language Processing and 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP 2019).

[32] Tianyu Gao, Xu Han, Ruobing Xie, Zhiyuan Liu, Fen Lin, Leyu Lin, Maosong Sun. Neural Snowball for Few-Shot Relation Learning. The 34th AAAI Conference on Artificial Intelligence (AAAI 2020).

[33] Xu Han, Tianyu Gao, Yuan Yao, Deming Ye, Zhiyuan Liu, Maosong Sun. OpenNRE:An Open and Extensible Toolkit for Neural Relation Extraction. The Conference on Empirical Methods in Natural Language Processing (EMNLP 2019).

大家都在看:

AAAI2020放榜,審稿遭瘋狂吐槽!八篇入選論文提前看!

ICCV2019 | 曠視提出輕量級目標檢測網路ThunderNet