《電子技術應用》
您所在的位置:首頁 > 電源技術 > 業界動態 > 觀點 | 下一步研究目標:盤點NLP領域最具潛力的六大方向

觀點 | 下一步研究目標:盤點NLP領域最具潛力的六大方向

2018-03-05

在開始你的研究之前,了解目標領域中最重要的研究方向是很重要的任務。本文中,德國海德堡大學的計算語言學在讀博士 Sebastian Ruder 為我們介紹了 NLP 領域里最具潛力的幾個研究方向。


目錄


獨立于任務的 NLP 數據增強

用于 NLP 的 few-shot learning

用于 NLP 的的遷移學習

多任務學習

跨語言學習

獨立于任務的架構提升


當開始新領域的研究時,你會發現尋找引人注目的主題并學會問正確的問題是一件很難的事。這種情況在機器學習這種進展很快的領域里尤其突出——你很難找到突破點。


本文旨在向初級研究人員和試圖進入研究領域的人提供啟發和思路,其中匯集了我感興趣的一系列研究課題:著重于自然語言處理(NLP)和遷移學習,所以本文不是面向所有讀者的。如果你對增強學習感興趣,OpenAI 提供了一系列有趣的增強學習研究主題(https://blog.openai.com/requests-for-research-2/)。如果你期待與他人合作,或對更廣泛的主題感興趣,請參閱 Artificial Intelligence Open Network(https://ai-on.org/)。


這些研究主題中的大多數目前還沒有被人們透徹地思考過;在很多情況下,概括性的描述是非常模糊和主觀的,未來研究方向也不甚明確。此外,大多數主題也并不包含低掛果實,因此需要我們非常努力才能得出結論。請注意:這一主題集并不是對于所有文獻的綜述,所以其覆蓋范圍可能不全。


希望本文能夠激發你的興趣,并為你自己的研究歷程提供靈感。


獨立于任務的 NLP 數據增強


數據增強旨在通過轉換生產現有訓練實例的變體而創建額外的訓練數據,以反映現實世界中的實際情況。在計算機視覺中,一般的增強技術有鏡像、隨機裁剪、剪切等。數據增強在 CV 中超級有用,比如有助于 AlexNet 對抗過擬合,絕大多數當前最優模型也使用了它。此外,數據增強非常直觀,因為它使得訓練數據更加多元,從而提升模型泛化能力。


然而,NLP 中數據增強并未廣泛使用。依我看,原因有兩點:


1. NLP 中的數據是分離的。這可防止我們把簡單的轉換直接應用于輸入數據。目前絕大多數的增強方法聚焦于這樣的轉換,比如領域隨機化 (Tobin et al., 2017) [2]。


2. 小的擾動可改變語義。刪除一個否定詞可能會改變句意,修改段落中的一個詞可能無意中改變了關于該段落問題的答案。其實在 CV 中情況并非如此:擾動一個像素并不會改變一個貓或狗的圖像,并且甚至明顯的變化比如不同圖像的插值也是有用的(Zhang et al., 2017)[3]。


我關注的現有方法要么是基于規則的 (Li et al., 2017) [5],要么是解決特定任務的,比如解析 (Wang and Eisner, 2016) [6] 或零-代名詞分辨率 (Liu et al., 2017) [7]。Xie et al. (2017) [39] 通過來自不同分布的樣本替代單詞以進行語言建模和機器翻譯。最近聚焦于創建對抗樣本的工作要么是通過替代單詞或字符 (Samanta and Mehta, 2017; Ebrahimi et al., 2017) [8, 9],級聯 (Jia and Liang, 2017) [11];要么是添加對抗擾動 (Yasunaga et al., 2017)。Li et al. (2017) [16] 同樣使用了對抗設置,其訓練系統生產與人類對話語句無差別的序列。


反向翻譯(Back-translation)(Sennrich et al., 2015; Sennrich et al., 2016) [12, 13] 是機器翻譯中的常見數據增強方法,有助于吸收單語訓練數據。比如,當訓練一個英轉法系統時,單語法語文本通過法轉英系統被翻譯成英語;合成的平行數據接著被用于訓練。反向翻譯同樣用于釋義 (Mallinson et al., 2017) [14]。釋義已被用于 QA (Dong et al., 2017) [15] 的數據增強,但并未發現有其他用處。


另一個方法與釋義相近,即通過變分自編碼器 (Bowman et al., 2016; Guu et al., 2017) [17, 19] 從連續空間中生成語句。如果按照 Hu et al., 2017 [18] 把表征解開,那么我們離風格遷移 (Shen et al., 2017) [20] 也就不遠了。


以下幾個研究方向很有趣,值得去跟:


1. 評估學習:評估一系列未廣泛使用的現有數據增強方法及技巧,比如應用于一系列不同任務(包括文本分類和序列標注)的釋義和風格遷移。確定何種類型的數據增強在所有任務和特定任務中是魯棒的。這可被打裝成軟件庫以使未來的基準更容易。


2. 帶有風格遷移的數據增強:調查風格遷移是否可用于修改訓練實例的不同屬性以獲得更魯棒的學習。


3. 學習增強:類似于 Dong et al. (2017),我們可為一個特定任務學習釋義或者生成轉換。


4. 學習詞嵌入空間以增強數據:典型的詞嵌入空間同時聚類同義詞和反義詞。因此在空間中使用最近鄰用于替換是不可行的。受最近工作 (Mrk?i? et al., 2017) [21] 啟發,我們可以具化詞嵌入空間以使其更適用于數據增強。


5. 對抗性數據增強:與最近的可解釋性工作相關 (Ribeiro et al., 2016) [22],我們可以改變實例中最重要的單詞,即那些模型依賴以做出預測的單詞。但是這依然需要保留語義的替換方法。


用于 NLP 的 Few-shot learning 


Zero-shot、one-shot、few-shot learning 是最近最為有趣的研究方向之一。通過遵從 Vinyals et al. (2016) [4] 的核心思想,即 few-shot learning 模型應該明確地訓練以執行 few-shot learning,我們已取得若干個最新進展 (Ravi and Larochelle, 2017; Snell et al., 2017) [23, 24]。學習若干個標注樣本是最艱難的問題之一,以及區分當前機器學習模型生成與更廣泛應用的系統的核心能力之一。據我所知,Zero-shot learning 只在學習未知單詞的詞嵌入的語境中被調查。無數據分類 (Song and Roth, 2014; Song et al., 2016) [25, 26] 是一個有趣的相關方向,它在聯合空間中嵌入標簽和文件,并需要帶有良好描述的可解釋性標簽。


1. 標準化基準:為 NLP few-shot learning 創建標準化基準。Vinyals et al. (2016) 為 Penn Treebank 引入了 one-shot 語言建模任務。這一任務盡管很有用,但與 CV 基準上的廣泛評估相比卻相形見絀,并且據我所知沒有多少使用。NLP 的 ew-shot learning 基準應該包含大量分類并提供標準化的再現性分割。良好的候選任務將是主題分類或細粒度實體識別。


2. 評估學習:創建這樣一個基準之后,下一步是評估 CV 中的現有 few-shot learning 方法在執行 NLP 任務方面表現如何。


3. NLP 的全新方法:給定一個基準數據集和實證評估學習,接著我們可以開始開發執行 NLP few-shot learning 的全新方法。


用于 NLP 的遷移學習


遷移學習已經對計算機視覺(CV)產生了巨大的影響,并大大降低了解決特定 CV 問題的難度門檻。計算機視覺從業者現在不再需要為每個新任務耗費大量的工程,僅需使用少量示例對已在大型數據集上訓練好的模型進行微調。


然而,在 NLP 領域里,我們目前仍然只能通過預訓練嵌入來預訓練模型的第一層。近期一些研究人員提出的方法(Peters et al., 2017, 2018)[31,32] 加入了預訓練語言模型嵌入,但是它們仍然需要針對每個任務定制架構。在我看來,若想解鎖遷移學習在 NLP 上的真正潛力,我們需要預訓練整個模型,并在目標任務上僅需微調,類似于微調 ImageNet 模型。舉例來說,在 NLP 上的語言建模可以類比為 CV 上的 ImageNet 分類(Howard and Ruder, 2018)[33]。


這里有一些潛在的研究方向:


1. 識別有用的預訓練任務:預訓練任務的選擇非常重要,即使是對于相關任務進行微調,我們也可能近會收到有限的成功(Mou et al., 2016)[38]。其他任務,如近期關于學習通用句嵌入的研究(Conneau et al., 2017;Subramanian et al., 2018; Nie et al., 2017)[34,35,40] 可能是語言模型預訓練的補充,或適用于其他目標任務。


2. 復雜架構的微調:模型應用于多目標時,預訓練是最為有效的。然而,目前仍不清楚如何對更為復雜的模型進行預訓練,如用于配對分類任務(Augenstein et al., 2018)或推理任務(如 Q&A 和閱讀理解)的模型。


多任務學習


多任務學習(Multi-task learning,MTL)在 NLP 領域中已經變得越來越普遍了。有關多任務學習的概述,可參閱此處(http://ruder.io/multi-task/),有關 NTL 在 NLP 中的目標可參閱此處(http://ruder.io/multi-task-learning-nlp/)。對于我們來說,多任務學習還有很多未知等待我們去探尋。


MTL 的主要問題帶來了一系列有趣的研究方向:


1. 確定有效的輔助任務:其中一個主要問題是哪些任務對于多任務學習是有用的。標簽熵已被證明可以是 MTL 中成功的預測器(Alonso and Plank, 2017)[28],但這一方向并未結束。在最近的研究中(Augenstein et al., 2018)[27],我們發現又跟股東數據和更多細化標簽的輔助任務更加有效。未來的 MTL 論文或許不僅會提出新的模型或輔助任務,也會試圖開始求解為何很多輔助任務會比另一個緊密相關的任務更好。


2. 硬參數共享的替代方案:硬參數共享目前仍然是 MTL 的默認操作方式,但它對模型施加了很多約束,以便用相同的參數壓縮與不同任務有關的知識,這往往會使學習變得困難。在 MTL 中,我們需要更加易于使用,且在多種任務上工作穩定的新方法(Misra et al., 2017; Ruder et al., 2017)[29,30],標簽嵌入層(Augenstein et al., 2018)在這一方向上很有潛力。


3. 人工輔助任務:最好的輔助任務是針對主任務目標,且不需要任何附加數據的任務。在這里,我列出了潛在的人工輔助任務列表(http://ruder.io/multi-task-learning-nlp/)。當然,目前我們還不清楚哪些輔助任務可以在多種不同類型的任務上適用,或哪種基于特定任務的變體性能最好。


跨語言學習


構建能夠跨語言的模型,將資源豐富語言中的知識遷移到資源貧乏的語言中,一直是 NLP 的重要研究方向之一。最近,學習跨語言表示,將多種不同語言投影到共享嵌入空間的方法有了很大進展。可參閱論文《A Survey of Cross-lingual Word Embedding Models》[36]。


跨語言表示通常根據內部基準測試,或外部下游任務(如文本分類)上的表現進行評估。雖然目前的最先進方法已經有了很多進步,但我們仍對于這些方法在某些任務或語言上的失敗原因,以及如何在所有任務上減小這些失敗的方法,如加入基于特定任務的約束(Mrk?i? et al., 2017)仍未有足夠的理解。


獨立于任務的架構提升


目前,在各個特定任務上,業內最佳的成績正在不斷地被刷新,舊的架構正不斷被淘汰。之前,我已經列出了在不同 NLP 任務上的最佳實踐(http://ruder.io/deep-learning-nlp-best-practices/),但如果不對這些架構在不同任務上的性能進行比較,我們很難定義特定架構的能力,也無法得知它們在其他任務上的可用性。


最近涌現出了一個頗具潛力的模型 Transformer(Vaswani et al., 2017)[37]。雖然完整的模型可能不適用于每個任務,但多頭注意(multi-head attention)或基于位置的編碼(position-based encoding)可以作為模塊構建模型,這樣就可以適用于很多 NLP 任務了。


結論


希望這一研究方向匯集能夠對你有所幫助。如果你有關于如何解決相關研究課題的思路,歡迎在本文下進行討論。


本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。
亚洲一区二区欧美_亚洲丝袜一区_99re亚洲国产精品_日韩亚洲一区二区
亚洲人体影院| 亚洲第一偷拍| 羞羞漫画18久久大片| 欧美激情亚洲另类| 久久精品视频在线播放| 国产精品va| 艳女tv在线观看国产一区| 红桃视频亚洲| 久热这里只精品99re8久| 亚洲一区二区三区在线看| 欧美日韩国产三级| 99热精品在线| 亚洲人成网站色ww在线| 免费成人高清视频| 亚洲激情在线激情| 亚洲二区视频| 欧美va亚洲va日韩∨a综合色| 午夜在线a亚洲v天堂网2018| 国产精品日韩精品欧美精品| 亚洲一区精品视频| 亚洲深夜激情| 国产欧美日韩在线视频| 国产精品二区三区四区| 久久成人这里只有精品| 国产亚洲精品高潮| 久久九九精品| 久久精品99无色码中文字幕| 在线播放亚洲一区| 欧美激情第10页| 亚洲午夜一区| 午夜精品久久久久久久| 激情综合自拍| 欧美区高清在线| 性欧美精品高清| 亚洲电影免费观看高清完整版在线 | 久久精品中文字幕一区二区三区| 欧美一级淫片aaaaaaa视频| 亚洲高清免费视频| 国产情人综合久久777777| 亚洲免费影视| 久久国产视频网站| 亚洲人成网站999久久久综合| 国产精品福利网| 理论片一区二区在线| 亚洲视频免费| 久久国内精品自在自线400部| 亚洲精品欧美一区二区三区| 亚洲欧美福利一区二区| 久久精品网址| 日韩一区二区精品在线观看| 亚洲欧美在线一区二区| 亚洲国产成人久久综合一区| 国产精品呻吟| 欧美日韩一区二区三区在线| 久久精品72免费观看| 亚洲天堂成人在线视频| 久久精品欧洲| 亚洲欧美日韩国产精品| 午夜一区二区三区不卡视频| 日韩午夜中文字幕| 亚洲成人在线观看视频| 影音国产精品| 亚洲福利国产| 亚洲国产精品久久久久秋霞蜜臀| 国产日韩欧美黄色| 国产精品一区免费观看| 国产精品视频免费| 国产农村妇女精品| 国产欧美日韩视频一区二区| 国产精品毛片一区二区三区 | 国产精品国产三级国产普通话99| 欧美精品粉嫩高潮一区二区 | 欧美日韩一区二| 国产精品成人一区二区网站软件 | 亚洲精选成人| 亚洲国产精品女人久久久| 亚洲国产精品尤物yw在线观看| 亚洲久久一区二区| 日韩视频在线观看一区二区| 亚洲精品日韩一| 一二三四社区欧美黄| 一本色道久久综合狠狠躁篇怎么玩 | 亚洲一区精品电影| 一区二区三区欧美视频| 亚洲精品久久嫩草网站秘色| 亚洲国产日韩一区二区| 亚洲欧洲三级| 日韩亚洲不卡在线| aa国产精品| 欧美一区二区三区久久精品茉莉花 | 欧美一级理论片| 亚洲国产成人久久综合| 亚洲精品中文字幕女同| 亚洲综合色在线| 久久精品夜夜夜夜久久| 欧美国产日产韩国视频| 国产精品av一区二区| 国产在线观看一区| 亚洲精品午夜| 羞羞视频在线观看欧美| 亚洲人成人一区二区在线观看| 中文国产成人精品| 久久成人国产| 欧美日韩黄色大片| 韩国av一区| 中国亚洲黄色| 亚洲精品美女在线| 欧美一区二区福利在线| 欧美日韩高清在线一区| 国内综合精品午夜久久资源| 99精品视频免费观看| 亚洲国产高清自拍| 性欧美xxxx大乳国产app| 欧美激情综合网| 国产视频在线观看一区二区三区 | 免费不卡在线视频| 国产区日韩欧美| 亚洲小少妇裸体bbw| 99国产精品一区| 免费美女久久99| 欧美视频中文在线看| 亚洲第一色中文字幕| 亚洲影音一区| 亚洲美女免费精品视频在线观看| 欧美在线观看天堂一区二区三区| 欧美日韩 国产精品| 国产女同一区二区| 在线观看欧美日韩国产| 亚洲淫性视频| 亚洲视频在线一区| 理论片一区二区在线| 国产精品日日摸夜夜摸av| 亚洲精品在线免费| 国产精品视频一二| 亚洲最黄网站| av成人手机在线| 美女精品一区| 永久免费精品影视网站| 亚洲在线观看免费视频| 亚洲欧洲av一区二区| 欧美日韩精品免费观看| 亚洲国产精品久久精品怡红院| 亚洲激情电影在线| 蜜桃久久av一区| 136国产福利精品导航网址应用| 亚洲国产一区二区三区高清 | av72成人在线| 欧美揉bbbbb揉bbbbb| 亚洲综合精品自拍| 久久av二区| 激情久久综艺| 亚洲国产精品va| 久久久久久久一区二区| 亚洲国产精品日韩| 亚洲日韩视频| 欧美国产三区| 亚洲精品国产精品国自产观看| 一区二区精品在线观看| 国产精品mm| 亚洲主播在线| 另类酷文…触手系列精品集v1小说| 伊大人香蕉综合8在线视| 亚洲精品老司机| 国产精品日韩欧美一区二区| 亚洲大片免费看| 欧美少妇一区| 久久国产精品99国产| 欧美日韩亚洲国产一区| 久久av一区二区| 欧美日韩国产黄| 久久不射电影网| 欧美视频一区二区在线观看 | 亚洲精品国产无天堂网2021| 亚洲欧美视频在线观看视频| 亚洲福利专区| 久久精品女人的天堂av| av成人免费在线| 欧美黄色免费网站| 欧美一区二区三区四区在线观看地址 | 韩国精品主播一区二区在线观看| 在线一区日本视频| 在线欧美电影| 欧美在线一区二区| 亚洲男同1069视频| 欧美先锋影音| 一本大道久久精品懂色aⅴ| 韩国在线一区| 久久国产欧美日韩精品| 在线视频亚洲| 欧美视频在线观看免费| 亚洲欧洲精品一区二区三区不卡 | 欧美精品九九| 亚洲人成网站色ww在线| 亚洲电影免费观看高清| 久久久久9999亚洲精品| 亚洲一区二区三区三| 国产精品久久久久久影院8一贰佰| 亚洲视频一二三| 亚洲免费高清视频| 欧美日韩国语|