《電子技術應用》
您所在的位置:首頁 > 通信與網絡 > 業界動態 > 學界 | 谷歌的機器翻譯模型 Transformer,現在可以用來做任何事了

學界 | 谷歌的機器翻譯模型 Transformer,現在可以用來做任何事了

2018-08-18

去年,谷歌發布了機器學習模型 Transformer,該模型在機器翻譯及其他語言理解任務上的表現遠遠超越了以往算法。今天,谷歌發布該模型最新版本——Universal Transformer,彌補了在大規模語言理解任務上具有競爭力的實際序列模型與計算通用模型之間的差距,其 BLEU 值比去年的 Transformer 提高了 0.9。在多項有難度的語言理解任務上,Universal Transformer 的泛化效果明顯更好,且它在 bAbI 語言推理任務和很有挑戰性的 LAMBADA 語言建模任務上達到了新的當前最優性能。


去年,谷歌發布了一種新的機器學習模型 Transformer(參見:機器翻譯新突破:谷歌實現完全基于 attention 的翻譯架構),該模型在機器翻譯及其他語言理解任務上的表現遠遠超越了現有算法。在 Transformer 之前,多數基于神經網絡的機器翻譯方法依賴于循環神經網絡(RNN),后者利用循環(即每一步的輸出饋入下一步)進行順序操作(例如,逐詞地翻譯句子)。盡管 RNN 在建模序列方面非常強大,但其序列性意味著該網絡在訓練時非常緩慢,因為長句需要的訓練步驟更多,其循環結構也加大了訓練難度。


與基于 RNN 的方法相比,Transformer 不需要循環,而是并行處理序列中的所有單詞或符號,同時利用自注意力機制將上下文與較遠的單詞結合起來。通過并行處理所有單詞,并讓每個單詞在多個處理步驟中注意到句子中的其他單詞,Transformer 的訓練速度比 RNN 快很多,而且其翻譯結果也比 RNN 好得多。然而,在更小、更加結構化的語言理解任務或簡單的算法任務中(如拷貝一個字符串(如將輸入「abc」轉換為「abcabc」)),Transformer 則表現欠佳。相比之下,在這些任務中表現良好的模型(如神經 GPU 和神經圖靈機)在大型語言理解任務(如翻譯)中表現不好。


谷歌研究人員在《Universal Transformers》一文中使用一種新型高效的時間并行循環(parallel-in-time recurrence)方式(可在更廣泛任務上產生更強大的結果)把標準 Transformer 擴展為計算通用(圖靈完備)模型。研究者將該模型建立在 Transformer 的并行結構上,以保持其快速的訓練速度。但是他們用單一、時間并行循環的變換函數的多次應用代替了 Transformer 中不同變換函數的固定堆疊(即,相同的學習變換函數在多個處理步驟中被并行應用于所有符號,其中每個步驟的輸出饋入下一個)。關鍵在于,RNN 逐個符號(從左到右)處理序列,而 Universal Transformer 同時處理所有符號(像 Transformer 一樣),然后使用自注意力機制在循環處理步驟(步驟數量可變)上,對每個符號的解釋進行改進。這種時間并行循環機制比 RNN 中使用的順序循環(serial recurrence)更快,也使得 Universal Transformer 比標準前饋 Transformer 更強大。

微信圖片_20180818110916.gif

Universal Transformer 模型使用自注意力機制結合不同位置的信息,應用循環變換函數,以并行化方式重復為序列的每個位置細化一系列向量表征(如圖自 h_1 到 h_m)。箭頭表示操作間的依賴關系。


在每一步中,信息利用自注意力從每個符號(例如句中單詞)傳遞到其他符號,就像在原始 Transformer 中一樣。但是,現在這種轉換的次數(即循環步的數量)可以提前手動設置(比如設置為固定數字或輸入長度),也可以通過 Universal Transformer 本身進行動態設定。為了實現后者,谷歌研究人員在每個位置都添加了一個自適應計算機制,它可以分配更多處理步驟給較模糊或需要更多計算的符號。


用一個直觀的例子來說明這是如何起作用的,比如這句話「I arrived at the bank after crossing the river」。在這個案例中,與沒有歧義的「I」或「river」相比,推斷「bank」一詞最可能的含義需要用到更多的語境信息。當我們用標準 Transformer 對這個句子進行編碼時,我們需要把同樣的計算量無條件地應用于每個單詞。然而,Universal Transformer 的自適應機制允許模型僅在更模糊的單詞上花費更多計算,例如,使用更多步驟來整合消除單詞「bank」歧義所需的額外語境信息,而在沒那么模糊的單詞上則花費較少的步驟。


起初,讓 Universal Transformer 僅重復應用單一學習函數來處理輸入似乎是有限制性的,尤其是與應用不同函數的固定序列的標準 Transformer 相比。但是,學習如何重復應用單一函數意味著應用的數量(處理步驟)現在是可變的,而這是一個很重要的區別。如上所述,除了允許 Universal Transformer 對更模糊的符號應用更多的計算之外,它還允許模型根據輸入的整體大小來調整函數應用的數量(更長的序列需要更多的步驟),或者基于訓練期間學習到的其它特性來動態地決定將函數應用到輸入的任何給定部分的頻率。這使得 Universal Transformer 在理論上更加強大,因為它可以有效地學習對輸入的不同部分應用不同的變換。而這是標準 Transformer 無法做到的,因為它由只應用一次的學習變換塊(learned Transformation block)的固定堆疊組成。


盡管 Universal Transformer 在理論上更加強大,但研究人員仍關心實驗性能。實驗結果證明,Universal Transformer 確實能夠從樣本中學習如何復制和反轉字符串,以及如何比 Transformer 或 RNN 更好地執行整數加法(盡管不如神經 GPU 效果好)。此外,在多項有難度的語言理解任務上,Universal Transformer 的泛化效果明顯更好,且它在 bAbI 語言推理任務和很有挑戰性的 LAMBADA 語言建模任務上達到了新的當前最優性能。但或許最令人感興趣的是,Universal Transformer 在與基礎 Transformer 使用相同數量參數、訓練數據以相同方式進行訓練時,其翻譯質量比后者提高了 0.9 個 BLEU 值。在去年 Transformer 發布時,它的性能比之前的模型提高了 2.0 個 BLEU 值,而 Universal Transformer 的相對改進量是去年的近 50%。


因此,Universal Transformer 彌補了在大規模語言理解任務(如機器翻譯)上具有競爭力的實際序列模型與計算通用模型(如神經圖靈機或神經 GPU)之間的差距,計算通用模型可使用梯度下降來訓練,用于執行隨機算法任務。谷歌很高興看到時間并行序列模型的近期進展,以及處理深度中計算能力和循環的增加,谷歌希望 Universal Transformer 可以幫助研究人員構建更加強大、更能高效利用數據的算法,泛化性能超越當前最優算法。


論文:Universal Transformers

微信圖片_20180818110950.jpg


論文鏈接:https://arxiv.org/pdf/1807.03819.pdf

Universal Transformer 代碼:https://github.com/tensorflow/tensor2tensor/blob/master/tensor2tensor/models/research/universal_transformer.py


摘要:自注意力前饋序列模型已被證明在序列建模任務上效果顯著,這些任務包括機器翻譯 [31]、圖像生成 [30] 和 constituency parsing [18],從而提供了可以替代循環神經網絡(RNN)的令人信服的方案,盡管 RNN 至今仍是許多序列建模問題事實上的標準架構。然而,盡管取得了這些成功,像 Transformer [31] 這樣的前饋序列模型卻無法泛化至很多循環模型可以輕松處理的任務上(例如,在字符串或公式長度超過訓練時模型觀察到的類型時,復制字符串甚至簡單的邏輯推斷 [28])。此外,與 RNN 相比,Transformer 模型在計算上不通用,這限制了其理論表達能力。本論文提出了 Universal Transformer,它可以解決這些實踐和理論缺陷。我們展示了它可以在多項任務中實現性能提升。Universal Transformer 不像 RNN 那樣使用對句中單個符號的循環,而是使用每個循環步驟重復修改句子中所有符號的表征。為了結合句子不同部分的信息,該模型在每個循環步中都使用了自注意力機制。假設有充足的記憶,則其循環會使 Universal Transformer 成為計算通用模型。我們進一步使用自適應計算時間(adaptive computation time,ACT)機制,使模型動態調整句子中每個位置的表征被修改的次數。除了節省計算量以外,ACT 還能夠提高模型的準確率。我們的實驗結果表明,在許多算法任務及大量大規模語言理解任務中,Universal Transformer 的泛化性能大大增強,在機器翻譯中的表現超越了基礎 Transformer 及 LSTM,在 bAbI 語言推理及富有挑戰性的 LAMBADA 語言建模任務中達到了新的當前最優性能


本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。
亚洲一区二区欧美_亚洲丝袜一区_99re亚洲国产精品_日韩亚洲一区二区
亚洲深夜影院| 欧美大片免费看| 日韩视频亚洲视频| 久久疯狂做爰流白浆xx| 亚洲淫片在线视频| 亚洲天堂av在线免费观看| 一本色道久久综合狠狠躁篇怎么玩 | 国产欧美日韩在线| 国产精品视频内| 国产精品国产自产拍高清av| 欧美日一区二区在线观看 | 国内久久婷婷综合| 加勒比av一区二区| 在线观看的日韩av| 亚洲第一主播视频| 亚洲区一区二区三区| 亚洲欧洲综合另类在线| 亚洲精品美女久久7777777| 亚洲精品资源美女情侣酒店| 日韩视频一区二区三区在线播放免费观看 | 久久精品免费观看| 亚洲国产精选| 亚洲免费观看高清完整版在线观看熊 | 欧美在线视频一区二区三区| 久久精品成人一区二区三区| 久久国产66| 亚洲人久久久| 在线午夜精品自拍| 亚洲综合欧美日韩| 久久av一区| 免费成人高清| 欧美日韩四区| 国产欧美一区二区白浆黑人| 激情综合网激情| 亚洲日本激情| 国产精品99久久久久久人| 午夜国产精品影院在线观看| 亚洲动漫精品| 一区二区三区日韩欧美| 欧美一区二区三区视频在线| 久久一区二区三区四区| 欧美精品一区二区三区高清aⅴ| 欧美日韩专区在线| 国产视频综合在线| 亚洲国产免费看| 夜夜嗨av一区二区三区四区| 午夜精品久久久久久久蜜桃app | 欧美精品网站| 国产精品综合| 亚洲国产精品一区制服丝袜| 一本久久综合亚洲鲁鲁| 欧美一区二区三区在线看| 亚洲精品免费一二三区| 亚洲欧美激情视频| 久久久亚洲高清| 欧美精品一区二区三区在线看午夜| 国产精品美女www爽爽爽| 狠狠久久亚洲欧美| 日韩午夜三级在线| 欧美在线观看一区| 日韩午夜中文字幕| 性欧美办公室18xxxxhd| 欧美大片一区二区三区| 国产精品久久久久aaaa九色| 国产婷婷色一区二区三区在线 | 老色鬼久久亚洲一区二区| 欧美三级免费| 在线不卡中文字幕| 亚洲自拍三区| 一本久久综合亚洲鲁鲁| 久久国产色av| 欧美日韩一区二区视频在线观看| 国产一区二区三区视频在线观看| 日韩视频不卡中文| 亚洲成人自拍视频| 香蕉久久a毛片| 欧美日本国产在线| 一区二区三区在线免费观看| 亚洲一本视频| 亚洲免费观看高清在线观看| 久久久精品久久久久| 欧美丝袜一区二区三区| 1769国内精品视频在线播放| 午夜精品久久久久久久99黑人| av成人动漫| 欧美1区2区视频| 国内精品伊人久久久久av影院| 亚洲私人黄色宅男| 一本色道久久综合亚洲精品小说 | 久久国产精彩视频| 欧美一区二区三区成人| 欧美日本精品| 亚洲激情网站| 亚洲国产一区二区三区青草影视| 久久精品道一区二区三区| 欧美色欧美亚洲另类七区| 亚洲激情av| 亚洲精品日韩在线| 久久综合九色99| 国产综合欧美| 欧美专区在线| 久久久久成人精品| 国产欧美亚洲日本| 亚洲小视频在线| 亚洲一区二区视频| 欧美日韩一区二区国产| 亚洲日本中文字幕| 亚洲三级性片| 欧美高清自拍一区| 亚洲国产日韩欧美在线图片| 亚洲国产精品福利| 久热精品视频在线观看一区| 国语对白精品一区二区| 欧美在线免费观看视频| 久久精品国产成人| 国产综合精品一区| 亚洲大片av| 欧美 日韩 国产 一区| 在线观看91精品国产麻豆| 亚洲成人在线视频播放 | 一区二区日韩伦理片| 亚洲一区二区三区影院| 欧美性jizz18性欧美| 一区二区三区日韩欧美| 亚洲免费在线观看| 国产精品青草综合久久久久99| 亚洲特级毛片| 欧美一区二区久久久| 国产色产综合产在线视频| 欧美在线网址| 你懂的视频一区二区| 亚洲国产精品成人一区二区| 日韩一级精品视频在线观看| 欧美日韩一区在线观看视频| 一级成人国产| 香蕉久久夜色精品| 国产亚洲欧美一级| 亚洲国产精品久久久久婷婷884 | 亚洲一级黄色av| 久久激情五月激情| 在线观看日产精品| 99国产欧美久久久精品| 欧美日韩午夜剧场| 亚洲一区二区三区免费在线观看| 欧美一区激情视频在线观看| 国一区二区在线观看| 亚洲精品国产系列| 欧美视频一区二区在线观看| 亚洲一区在线播放| 久久综合给合| 99精品免费视频| 欧美一区亚洲二区| 亚洲第一精品久久忘忧草社区| 国产精品99久久久久久久久| 国产精品综合| 亚洲人午夜精品免费| 欧美午夜视频| 欧美在线观看视频一区二区| 欧美韩日精品| 亚洲免费在线观看视频| 久久综合精品国产一区二区三区| 亚洲精品中文字幕有码专区| 欧美在线日韩在线| 亚洲欧洲综合| 久久精品国产99国产精品| 亚洲国产精品第一区二区三区| 亚洲男女自偷自拍| 1024成人网色www| 亚洲主播在线观看| 伊人婷婷久久| 亚洲欧美精品suv| 伊人久久婷婷色综合98网| 亚洲婷婷综合色高清在线| 国产一区观看| 亚洲午夜精品网| 影音先锋中文字幕一区| 亚洲一区在线看| 亚洲电影观看| 亚洲欧美国产高清| 亚洲电影免费观看高清| 亚洲欧美日韩天堂| 亚洲国产精品国自产拍av秋霞| 性欧美超级视频| 91久久久一线二线三线品牌| 欧美专区亚洲专区| 99亚洲一区二区| 免费欧美日韩国产三级电影| 亚洲一区国产视频| 欧美啪啪一区| 亚洲国产裸拍裸体视频在线观看乱了中文 | 亚洲欧美一区在线| 亚洲欧洲精品天堂一级| 久久久久久亚洲精品不卡4k岛国| 99精品国产99久久久久久福利| 久久综合色8888| 欧美一级视频精品观看| 欧美日韩综合视频| 亚洲精品久久久久久久久久久久久| 国产欧美日韩亚州综合| 国产精品99久久久久久久vr|