《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 嵌入式技術(shù) > 設(shè)計(jì)應(yīng)用 > 基于Transformer模型的中文文本自動(dòng)校對(duì)研究
基于Transformer模型的中文文本自動(dòng)校對(duì)研究
2020年電子技術(shù)應(yīng)用第1期
龔永罡,裴晨晨,廉小親,王嘉欣
北京工商大學(xué) 計(jì)算機(jī)與信息工程學(xué)院食品安全大數(shù)據(jù)技術(shù)北京市重點(diǎn)實(shí)驗(yàn)室,北京100048
摘要: 提出將Transformer模型應(yīng)用于中文文本自動(dòng)校對(duì)領(lǐng)域。Transformer模型與傳統(tǒng)的基于概率、統(tǒng)計(jì)、規(guī)則或引入BiLSTM的Seq2Seq模型不同,該深度學(xué)習(xí)模型通過(guò)對(duì)Seq2Seq模型進(jìn)行整體結(jié)構(gòu)改進(jìn),從而實(shí)現(xiàn)中文文本自動(dòng)校對(duì)。通過(guò)使用公開(kāi)數(shù)據(jù)集對(duì)不同模型進(jìn)行對(duì)比實(shí)驗(yàn),采用準(zhǔn)確率、召回率與F1值作為評(píng)價(jià)指標(biāo),實(shí)驗(yàn)結(jié)果表明,Transformer模型相比較于其他模型,在中文文本自動(dòng)校對(duì)的性能上有了大幅提升。
中圖分類號(hào): TN957.52;TP312
文獻(xiàn)標(biāo)識(shí)碼: A
DOI:10.16157/j.issn.0258-7998.191013
中文引用格式: 龔永罡,裴晨晨,廉小親,等. 基于Transformer模型的中文文本自動(dòng)校對(duì)研究[J].電子技術(shù)應(yīng)用,2020,46(1):30-33,38.
英文引用格式: Gong Yonggang,Pei Chenchen,Lian Xiaoqin,et al. Research on automatic proofreading of Chinese text based on Transformer model[J]. Application of Electronic Technique,2020,46(1):30-33,38.
Research on automatic proofreading of Chinese text based on Transformer model
Gong Yonggang,Pei Chenchen,Lian Xiaoqin,Wang Jiaxin
College of Computer and Information Engineering Beijing Key Laboratory of Food Safety Big Data Technology, Beijing Technology and Business University,Beijing 100048,China
Abstract: This paper proposes to apply Transformer model in the field of Chinese text automatic proofreading. Transformer model is different from traditional Seq2Seq model based on probability, statistics, rules or BiLSTM. This deep learning model improves the overall structure of Seq2Seq model to achieve automatic proofreading of Chinese text. By comparing different models with public data sets and using accuracy, recall rate and F1 value as evaluation indexes, the experimental results show that Transformer model has greatly improved proofreading performance compared with other models.
Key words : Chinese text proofreading;Transformer model;deep learning

0 引言

    在如今信息量與日俱增的大數(shù)據(jù)時(shí)代,每天都會(huì)產(chǎn)生大量的文本信息,隨之而來(lái)的文本校對(duì)任務(wù)也越來(lái)越繁重,傳統(tǒng)的人工校對(duì)不僅校對(duì)周期長(zhǎng)、勞動(dòng)強(qiáng)度大,而且效率低,研究快速高效的自動(dòng)校對(duì)方法是十分必要的。

    基于概率統(tǒng)計(jì)的中文文本校對(duì)方法通過(guò)構(gòu)建混淆集,分析目標(biāo)詞語(yǔ)與其上下文詞語(yǔ)的同現(xiàn)特征及搭配特征,判斷哪些錯(cuò)誤需要校對(duì),并在混淆集中選取概率值最高的詞語(yǔ)替換目標(biāo)詞語(yǔ),從而進(jìn)行文本校對(duì)[1]。然而,對(duì)于長(zhǎng)距離的文本錯(cuò)誤及語(yǔ)義錯(cuò)誤,此類方法往往效果不佳。近年來(lái),隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,將深度學(xué)習(xí)技術(shù)應(yīng)用于中文文本自動(dòng)校對(duì)任務(wù)成為了一種新的發(fā)展方向。

    深度學(xué)習(xí)技術(shù)中的Transformer模型在Google于2017年6月發(fā)布在arXiv上的一篇文章《Attention is all you need》中提出[2],使用完全基于Self-Attention即“自注意力機(jī)制”的網(wǎng)絡(luò)結(jié)構(gòu),拋棄了傳統(tǒng)Encoder-Decoder即“編碼器-解碼器”模型必須使用RNN或CNN的固有模式[3]。本文首次將其應(yīng)用于中文文本自動(dòng)校對(duì)任務(wù),實(shí)驗(yàn)結(jié)果表明該模型可以較好地解決中文文本自動(dòng)校對(duì)中的遠(yuǎn)距離信息丟失問(wèn)題,進(jìn)一步提升校對(duì)性能。

1 背景

1.1 中文文本自動(dòng)校對(duì)的國(guó)內(nèi)外研究現(xiàn)狀

    國(guó)外最早于20世紀(jì)60年代開(kāi)始展開(kāi)英文文本自動(dòng)校對(duì)研究,發(fā)展至今,已取得突破性進(jìn)展,擁有高準(zhǔn)確率和高召回率的校對(duì)方法也已經(jīng)應(yīng)用到實(shí)際產(chǎn)品當(dāng)中[4]。而國(guó)內(nèi)關(guān)于中文文本自動(dòng)校對(duì)的研究起步較晚,于20世紀(jì)90年代開(kāi)始在國(guó)外對(duì)英文文本自動(dòng)校對(duì)研究的基礎(chǔ)上,進(jìn)行中文文本自動(dòng)校對(duì)技術(shù)研究[5]

    目前,國(guó)內(nèi)對(duì)于中文文本自動(dòng)校對(duì)技術(shù)的研究方法主要有以下3種:(1)基于規(guī)則或語(yǔ)言學(xué)知識(shí)的方法[6];(2)基于統(tǒng)計(jì)、概率的方法,如N-gram模型[7];(3)基于特征和Winnow學(xué)習(xí)模型,通過(guò)構(gòu)造混淆集進(jìn)行校對(duì)[8]。以上3種方法均為傳統(tǒng)的中文文本校對(duì)方法[9],本文則是通過(guò)深度學(xué)習(xí)技術(shù)進(jìn)行中文文本自動(dòng)校對(duì),而傳統(tǒng)的深度學(xué)習(xí)技術(shù)通常采用RNN或CNN進(jìn)行中文文本自動(dòng)校對(duì)[10]

1.2 RNN與CNN在中文文本自動(dòng)校對(duì)的局限性

    使用RNN進(jìn)行中文文本自動(dòng)校對(duì)任務(wù)時(shí),通常采用雙向RNN結(jié)構(gòu)[11]。即通過(guò)一個(gè)RNN進(jìn)行從左往右的壓縮表示,另一個(gè)RNN進(jìn)行從右往左的壓縮表示,將兩種壓縮表示結(jié)合起來(lái),作為最終序列的分布式表示。因?yàn)閷?duì)序列中的元素按順序處理,所以兩個(gè)詞之間的交互距離即相對(duì)距離。因此,RNN在長(zhǎng)距離序列中存在信息丟失問(wèn)題,即使是加入了門(mén)控機(jī)制的LSTM[12]和GRU,依然無(wú)法解決該問(wèn)題。

    使用CNN進(jìn)行中文文本自動(dòng)校對(duì)任務(wù)時(shí),一般使用多層結(jié)構(gòu)來(lái)實(shí)現(xiàn)序列從局部表示到全局表示[13]。一個(gè)詞首先會(huì)在底層CNN單元上與其距離較近的詞產(chǎn)生交互,然后在稍高層次的CNN單元上與更遠(yuǎn)一些的詞產(chǎn)生交互。詞之間的交互距離,與它們的相對(duì)距離成正比,因此使用CNN進(jìn)行中文文本自動(dòng)校對(duì)任務(wù)同樣會(huì)導(dǎo)致遠(yuǎn)距離信息丟失問(wèn)題。

2 Transformer模型

    Transformer模型是一種對(duì)序列信息建模的新方法,該模型依然沿用了經(jīng)典的Encoder-Decoder結(jié)構(gòu),不同的是Transformer模型不再使用RNN或CNN,而是使用Self-Attention機(jī)制。該機(jī)制的優(yōu)勢(shì)就是可以獲取文本語(yǔ)義信息而不受詞語(yǔ)之間的相對(duì)距離影響,從而解決遠(yuǎn)距離信息丟失問(wèn)題,提高校對(duì)性能。

2.1 Self-Attention

    Self-Attention機(jī)制作為T(mén)ransformer模型最核心的特點(diǎn),其可以建立當(dāng)前位置詞語(yǔ)與其上下文相關(guān)詞語(yǔ)之間的聯(lián)系。實(shí)現(xiàn)方式為:首先,將輸入向量分別與3個(gè)隨機(jī)初始化的權(quán)值矩陣WQ、WK和WV相乘,計(jì)算得出3個(gè)新的向量,分別為查詢向量q、鍵向量k和值向量v。其中q向量表示為了編碼當(dāng)前詞語(yǔ),需要去注意文本中的其他詞;k向量是當(dāng)前詞的可以被用于檢索的信息;v向量則表示當(dāng)前詞語(yǔ)的實(shí)際內(nèi)容。接下來(lái)計(jì)算Self-Attention的分?jǐn)?shù)值,其決定了在對(duì)輸入句子中的某個(gè)詞語(yǔ)進(jìn)行編碼時(shí),對(duì)句子中其他部分的關(guān)注程度。

    如圖1所示,針對(duì)“生度”這個(gè)詞,通過(guò)查詢向量與鍵向量點(diǎn)乘,計(jì)算出其他詞對(duì)于該詞的一個(gè)分?jǐn)?shù)值。首先針對(duì)于本身即q1×k1,然后針對(duì)于第二個(gè)詞即q1×k2;為了減少乘積值過(guò)大對(duì)之后歸一化的影響,將點(diǎn)乘得到的結(jié)果分別除以向量維度的開(kāi)方;之后再做歸一化處理,得到的結(jié)果即每個(gè)詞與當(dāng)前位置詞語(yǔ)的相關(guān)性大小;最后將值向量v與歸一化后的結(jié)果相乘再相加,得到的結(jié)果即Self-Attetion在當(dāng)前節(jié)點(diǎn)的值。計(jì)算方式如圖1所示。

rgzn1-t1.gif

    為了提高計(jì)算速度,本文采用矩陣的方式進(jìn)行計(jì)算,計(jì)算方法如式(1)所示。

    rgzn1-gs1.gif

其中,Q、K、V分別表示對(duì)應(yīng)的3個(gè)向量矩陣,即查詢矩陣、鍵矩陣和值矩陣;dkey表示向量維度,本文取64維。

2.2 Multi-Headed Attention

    為了提升模型性能,加入了 Multi-Headed Attention機(jī)制[14],即“多頭注意力”機(jī)制,通過(guò)初始化多組權(quán)值矩陣進(jìn)行計(jì)算,本文選取8組。將計(jì)算得到8個(gè)矩陣拼接為一個(gè)矩陣,再將一個(gè)隨機(jī)初始化的矩陣與拼接好的矩陣相乘,得到最終矩陣。該機(jī)制的結(jié)構(gòu)如圖2所示。

rgzn1-t2.gif

    “多頭注意力”機(jī)制有多個(gè)“注意力頭”,因此可以并行計(jì)算,提高模型訓(xùn)練速度。并且每個(gè)“注意力頭”都有對(duì)應(yīng)的權(quán)值矩陣,實(shí)現(xiàn)不同的線性變換,因此擴(kuò)展了模型關(guān)注序列不同位置的信息的能力,可以對(duì)文本的語(yǔ)義信息有更完整的理解,從而進(jìn)一步提高校對(duì)性能。

3 Transformer模型的實(shí)現(xiàn)

3.1 數(shù)據(jù)預(yù)處理

    在Transformer模型構(gòu)造之前,需要對(duì)輸入的數(shù)據(jù)進(jìn)行預(yù)處理[15],包括:數(shù)據(jù)加載、數(shù)據(jù)清洗、分詞、語(yǔ)料轉(zhuǎn)換、分析統(tǒng)計(jì)。其中,數(shù)據(jù)加載是將數(shù)據(jù)集中的數(shù)據(jù)導(dǎo)入模型;數(shù)據(jù)清洗是去除語(yǔ)料中的特殊字符;分詞使用中文分詞工具“jieba分詞”,對(duì)語(yǔ)料進(jìn)行分詞[16];語(yǔ)料轉(zhuǎn)換是將中文詞語(yǔ)轉(zhuǎn)換成對(duì)應(yīng)的數(shù)字編碼,以及對(duì)應(yīng)的數(shù)字編碼轉(zhuǎn)換為中文詞語(yǔ);分析統(tǒng)計(jì)是對(duì)語(yǔ)料進(jìn)行分析,了解語(yǔ)料特征。

3.2 Transformer模型結(jié)構(gòu)

    本文中的Transformer模型由6個(gè)編碼器層和6個(gè)解碼器層堆疊組成。待校對(duì)文本在編碼器端輸入,正確文本在解碼器端輸入,通過(guò)監(jiān)督學(xué)習(xí)來(lái)訓(xùn)練模型。即訓(xùn)練階段將訓(xùn)練集中的輸入語(yǔ)料作為編碼器輸入,將對(duì)應(yīng)的正確語(yǔ)料作為解碼器的輸入;在測(cè)試階段將測(cè)試集的待校對(duì)語(yǔ)料作為編碼器的輸入,解碼器端無(wú)輸入,僅依賴前一時(shí)刻的解碼器輸出信息進(jìn)行校對(duì)。其整體結(jié)構(gòu)如圖3所示。

rgzn1-t3.gif

    編碼器層內(nèi)部包含兩個(gè)子層,即一個(gè)Self-Attention層和一個(gè)全連接的前饋神經(jīng)網(wǎng)絡(luò)層。Self-Attention層中的查詢向量、鍵向量和值向量均來(lái)自于前一個(gè)編碼器層,因此編碼器層的每個(gè)位置都能去關(guān)注前一層輸出的所有信息,使得當(dāng)前節(jié)點(diǎn)不僅關(guān)注當(dāng)前信息,還能獲得上下文的語(yǔ)義信息。前饋神經(jīng)網(wǎng)絡(luò)層應(yīng)用于Self-Attention層的輸出,由兩個(gè)線性變換和一個(gè)ReLU激活函數(shù)組成。計(jì)算方法如式(2)所示。

    rgzn1-gs2.gif

其中,W1和W2為模型中神經(jīng)元的權(quán)值,b1和b2為偏置值,x為輸入向量。

    編碼器層與解碼器層的結(jié)構(gòu)如圖4所示。

rgzn1-t4.gif

    解碼器層不僅包含編碼器層中的兩個(gè)子層,還添加了一個(gè)注意力子層對(duì)編碼器的輸出執(zhí)行多頭注意,其查詢向量來(lái)自于前一個(gè)解碼器層,鍵向量和值向量來(lái)自于編碼器的輸出,因此解碼器的每個(gè)位置都可以關(guān)注到編碼器輸入序列的全部信息,幫助當(dāng)前解碼器節(jié)點(diǎn)獲取到需要關(guān)注的重點(diǎn)內(nèi)容。此外,解碼器的Self-Attention子層加入了masked部分,其可以對(duì)某些值進(jìn)行掩蓋,從而防止模型注意到后續(xù)位置信息。這種屏蔽確保了當(dāng)前的預(yù)測(cè)只能依賴于之前的已知輸出。

3.3 Transformer模型實(shí)現(xiàn)過(guò)程

    Transformer模型的內(nèi)部結(jié)構(gòu)如圖5所示。

rgzn1-t5.gif

3.3.1 Embedding

    首先,模型對(duì)輸入數(shù)據(jù)進(jìn)行Embedding,即詞嵌入,將輸入詞語(yǔ)轉(zhuǎn)變成向量[17]。將向量輸入到編碼器和解碼器的第一層,經(jīng)過(guò)多頭注意力機(jī)制處理后傳入前饋神經(jīng)網(wǎng)絡(luò),得到的輸出信息作為下一層編碼器和解碼器的輸入[18]

3.3.2 Positional Encoding

    因?yàn)門(mén)ransformer模型缺少對(duì)輸入序列中詞語(yǔ)順序的表示,所以需要在編碼器層和解碼器層的輸入添加一個(gè)Positional Encoding向量,即位置編碼向量,維度與輸入向量的維度相同,本文取512維。該向量決定當(dāng)前詞在序列中的位置,計(jì)算方法如式(3)、式(4)所示:

     rgzn1-gs3-4.gif

其中,pos是指當(dāng)前詞語(yǔ)在句子中的位置;i表示pos對(duì)應(yīng)的向量值,取值范圍為0~255;dmodel表示向量維度。在偶數(shù)位置,使用正弦編碼;在奇數(shù)位置,使用余弦編碼。最后將位置編碼向量與輸入向量相加,作為輸入傳入模型。

3.3.3 殘差連接和歸一化

    編碼器層和解碼器層中每個(gè)子層都加入了殘差連接和歸一化[19]。子層先進(jìn)行殘差連接,避免誤差反向傳播時(shí)的梯度消失,接著對(duì)輸出進(jìn)行歸一化,避免梯度消失或梯度爆炸。剩余連接和歸一化后的輸出表示如式(5)所示:

    rgzn1-gs5.gif

其中,x為前一層前饋神經(jīng)網(wǎng)絡(luò)或多頭注意力層的輸出向量,SubLayer為注意力機(jī)制函數(shù),LayerNorm為歸一化函數(shù)。

3.3.4 輸出層

    當(dāng)解碼器層全部執(zhí)行完畢后,為了將得到的向量映射為本文需要的詞語(yǔ),需要在最后一個(gè)解碼器層后添加一個(gè)全連接層和Softmax層。全連接層輸出logits向量,作為Softmax層的輸入。假設(shè)詞典包括n個(gè)詞語(yǔ),那最終Softmax層會(huì)輸出n個(gè)詞語(yǔ)分別對(duì)應(yīng)的概率值,概率值最大的對(duì)應(yīng)詞語(yǔ)就是最終的輸出結(jié)果。

4 結(jié)果與分析

    針對(duì)上述模型,本文設(shè)計(jì)了以下的實(shí)驗(yàn)。本實(shí)驗(yàn)運(yùn)行環(huán)境操作系統(tǒng)為Windows 10,CPU為Intel CoreTM i5-8265,GPU為GTX 1070Ti,運(yùn)行內(nèi)存8 GB。一共進(jìn)行4組實(shí)驗(yàn),分別為傳統(tǒng)的Seq2Seq、加入BiLSTM的Seq2Seq、基于注意力機(jī)制的BiLSTM Seq2Seq與Transformer共4種模型。實(shí)驗(yàn)使用的數(shù)據(jù)集來(lái)自于2018 NLPCC共享的訓(xùn)練數(shù)據(jù)集Task 2,其中提供了717 206條中文文本語(yǔ)句對(duì),將其中的700 000條作訓(xùn)練集,17 206條作測(cè)試集,劃分過(guò)程隨機(jī)。Src代表待校對(duì)語(yǔ)料,Trg表示原句所對(duì)應(yīng)的正確語(yǔ)料。數(shù)據(jù)集的統(tǒng)計(jì)數(shù)據(jù)如表1所示,分為訓(xùn)練集和測(cè)試集,統(tǒng)計(jì)了正確語(yǔ)料和錯(cuò)誤語(yǔ)料,以及分詞后的詞語(yǔ)總數(shù)。

rgzn1-b1.gif

    為了對(duì)不同模型的校對(duì)效果進(jìn)行評(píng)價(jià),本次實(shí)驗(yàn)采用準(zhǔn)確率、召回率和F1值作為指標(biāo),對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行評(píng)估,實(shí)驗(yàn)結(jié)果如表2所示。

rgzn1-b2.gif

    實(shí)驗(yàn)結(jié)果表明,BiLSTM和注意力機(jī)制均可以在傳統(tǒng)Seq2Seq模型的基礎(chǔ)上提升中文文本校對(duì)效果,然而,Transformer模型的表現(xiàn)更好。并且,深度學(xué)習(xí)模型的校對(duì)效果受到訓(xùn)練次數(shù)和訓(xùn)練數(shù)據(jù)集大小的影響,如果增加Transformer模型的訓(xùn)練次數(shù)和增大訓(xùn)練數(shù)據(jù)集,模型將擁有更好的校對(duì)效果。

5 結(jié)論

    本文將Transformer模型應(yīng)用于中文文本自動(dòng)校對(duì)領(lǐng)域,通過(guò)公開(kāi)數(shù)據(jù)集對(duì)該模型的校對(duì)性能進(jìn)行驗(yàn)證,得出該模型的校對(duì)效果相比較于其他的模型在準(zhǔn)確率和召回率方面均有很大提升。

    本次實(shí)驗(yàn)由于數(shù)據(jù)集的局限性[20],導(dǎo)致并未展現(xiàn)出Transformer模型的全部能力,但是該模型在中文文本自動(dòng)校對(duì)中的表現(xiàn)依然優(yōu)異,也為T(mén)ransformer模型應(yīng)用于其他自然語(yǔ)言處理任務(wù)提供了可能性。

參考文獻(xiàn)

[1] 張仰森,俞士汶.文本自動(dòng)校對(duì)技術(shù)研究綜述[J].計(jì)算機(jī)應(yīng)用研究,2006(6):8-12.

[2] VASWANI A,SHAZEER N,PARMAR N,et al.Attention is all you need[J].Comouting Research Respository,2017,arXiv:1706:87-90.

[3] ZHANG C,WANG X,YU S,et al.Research on keyword extraction of Word2vec model in Chinese corpus[C].IEEE/ACIS 17th International Conference on Computer and Information Science(ICIS).IEEE,2018:339-343.

[4] 張濤.中文文本自動(dòng)校對(duì)系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[D].成都:西南交通大學(xué),2017.

[5] 劉亮亮,王石,王東升,等.領(lǐng)域問(wèn)答系統(tǒng)中的文本錯(cuò)誤自動(dòng)發(fā)現(xiàn)方法[J].中文信息學(xué)報(bào),2013,27(3):77-83.

[6] 劉亮亮,曹存根.中文“非多字詞錯(cuò)誤”自動(dòng)校對(duì)方法研究[J].計(jì)算機(jī)科學(xué),2016,43(10):200-205.

[7] 張仰森,曹大元,俞士汶.基于規(guī)則與統(tǒng)計(jì)相結(jié)合的中文文本自動(dòng)查錯(cuò)模型與算法[J].中文信息學(xué)報(bào),2005,20(4):1-8.

[8] 張仰森,唐安杰,張澤偉.面向政治新聞?lì)I(lǐng)域的中文文本校對(duì)方法研究[J].中文信息學(xué)報(bào),2014,28(6):79-84.

[9] 張仰森,鄭佳.中文文本語(yǔ)義錯(cuò)誤偵測(cè)方法研究[J].計(jì)算機(jī)學(xué)報(bào),2017,40(4):911-924.

[10] Wu Yonghui,SCHUSTER M,Chen Zhifeng,et al.Google′s neural machine translation system bridging the gap between human and machine translation[J].Computing Research Repository,2016,arXiv:1609:56-59.

[11] Chung Junyoung,GULCEHRE C,CHO K,et al.Empirical evaluation of gated recurrent neural networks on sequence modeling[J].CoRR,2014,abs/1412:78-81.

[12] Cheng Jianpeng,LAPATA M.Long short-term memory-networks for machine reading[J].arXiv Preprint 2016,arXiv:1601:127-130.

[13] GEHRING J,AULI M,GRANGIER D,et al.Convolutional sequence to sequence learning[J].arXiv Preprint 2017,arXiv:1705:68-71.

[14] LUONG M T,LE Q V,SUTSKEVER I,et al.Multi-task sequence to sequence learning[J].arXiv Preprint 2015,arXiv:1511:114-117.

[15] 王潔,喬藝璇,彭巖,等.基于深度學(xué)習(xí)的美國(guó)媒體“一帶一路”輿情的情感分析[J].電子技術(shù)應(yīng)用,2018,44(11):102-106.

[16] 孫鐵利,劉延吉.中文分詞技術(shù)的研究現(xiàn)狀與困難[J].2012(1):187-192.

[17] Lin Zhouhan,F(xiàn)eng Minwei,NOGUEIRA C,et al. A struc-tured self-attentive sentence embedding[J].arXiv Preprint 2017,arXiv:1703:116-119.

[18] PRESS O,WOLF L.Using the output embedding to improve language models[J].arXiv Preprint 2016,arXiv:1608:67-70.

[19] BA J L,KIROS J R,HINTON G E.Layer normalization[J].arXiv Preprint 2016,arXiv:1607:45-49.

[20] 字云飛,李業(yè)麗,孫華艷.基于深度神經(jīng)網(wǎng)絡(luò)的個(gè)性化推薦系統(tǒng)研究[J].電子技術(shù)應(yīng)用,2019,45(1):14-18.



作者信息:

龔永罡,裴晨晨,廉小親,王嘉欣

(北京工商大學(xué) 計(jì)算機(jī)與信息工程學(xué)院食品安全大數(shù)據(jù)技術(shù)北京市重點(diǎn)實(shí)驗(yàn)室,北京100048)

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
亚洲一区二区欧美_亚洲丝袜一区_99re亚洲国产精品_日韩亚洲一区二区
一区二区三区.www| 亚洲午夜激情网页| 一区二区国产在线观看| 亚洲第一区中文99精品| 红桃视频成人| 韩国欧美一区| 国产一区久久久| 国产亚洲一区二区在线观看| 国产精品网站一区| 国产精品久在线观看| 欧美日韩在线另类| 欧美三级乱码| 欧美午夜电影网| 欧美三级黄美女| 欧美午夜免费电影| 国产精品二区在线| 国产精品一区二区在线| 国产欧美一区二区精品仙草咪| 国产精品国码视频| 国产精品婷婷| 国产亚洲综合在线| 国产揄拍国内精品对白| 黑人中文字幕一区二区三区 | 国产精品国产亚洲精品看不卡15| 欧美日韩一区精品| 欧美性猛交一区二区三区精品| 欧美三级韩国三级日本三斤| 国产精品美女久久久| 国产精品天美传媒入口| 国产亚洲欧美激情| 一区二区亚洲精品| 亚洲人成网站色ww在线| 一区二区三区视频在线看| 亚洲一区二区在线视频 | 久久超碰97人人做人人爱| 久久精品国产69国产精品亚洲| 久久综合影音| 欧美日本精品一区二区三区| 国产精品麻豆成人av电影艾秋| 国产日产亚洲精品| 亚洲第一主播视频| 一区二区三区视频在线播放| 午夜影视日本亚洲欧洲精品| 久久国产精品99精品国产| 亚洲精品久久久蜜桃| 在线亚洲电影| 欧美在线观看网站| 欧美凹凸一区二区三区视频| 欧美揉bbbbb揉bbbbb| 国产女人aaa级久久久级| 在线观看视频一区| a91a精品视频在线观看| 香蕉成人伊视频在线观看 | 麻豆国产va免费精品高清在线| 欧美精品二区| 国产精品一区二区在线观看| 伊人成年综合电影网| 99视频精品在线| 久久精品国产精品| 亚洲图片欧美午夜| 久久久99爱| 欧美日韩视频专区在线播放 | 久久综合成人精品亚洲另类欧美| 欧美精品高清视频| 国产色综合久久| 亚洲人屁股眼子交8| 午夜精品一区二区三区四区| 亚洲人成在线观看网站高清| 亚洲永久精品国产| 免费久久99精品国产| 国产精品国产三级国产aⅴ无密码| 国内一区二区三区| 亚洲神马久久| 亚洲精品美女久久7777777| 亚洲欧美在线磁力| 欧美激情影院| 韩国成人精品a∨在线观看| 一个色综合av| 亚洲精品国久久99热| 久久成人免费电影| 欧美三日本三级三级在线播放| 国产一区二区三区奇米久涩 | 欧美三级乱码| 在线成人av.com| 亚洲私人影院| 日韩一二三在线视频播| 久久久久久香蕉网| 国产精品久久久久久久久久久久久| 黑人巨大精品欧美一区二区| 亚洲欧美乱综合| 亚洲先锋成人| 欧美黄色小视频| 激情小说亚洲一区| 午夜精品美女自拍福到在线 | 一本一本久久| 亚洲精品国精品久久99热一| 久久精品视频免费观看| 国产精品扒开腿做爽爽爽视频 | 欧美另类综合| 在线观看日韩一区| 欧美自拍偷拍| 久久狠狠亚洲综合| 国产精品萝li| 中文国产成人精品久久一| 日韩一区二区免费高清| 免费影视亚洲| 激情成人中文字幕| 欧美伊人久久久久久久久影院| 香蕉久久精品日日躁夜夜躁| 欧美日韩国产页| 亚洲精品欧美| 日韩视频精品在线| 欧美高清视频一二三区| 亚洲第一天堂av| 亚洲区一区二区三区| 欧美大尺度在线观看| 国产一区二区毛片| 久久精品二区三区| 久久久午夜电影| 韩国女主播一区| 久久精品视频一| 免费日本视频一区| 在线欧美日韩精品| 亚洲区一区二区三区| 欧美国产第一页| 亚洲全黄一级网站| 亚洲美女精品久久| 欧美日本韩国| 这里只有精品在线播放| 亚洲欧美三级在线| 国产精品一二一区| 午夜一区二区三区不卡视频| 久久久青草青青国产亚洲免观| 国产私拍一区| 久久国产主播精品| 免费高清在线视频一区·| 亚洲国产99精品国自产| 日韩系列在线| 欧美涩涩网站| 亚洲一线二线三线久久久| 久久精品国产欧美激情| 精品电影在线观看| 99pao成人国产永久免费视频| 欧美日韩在线播放三区| 亚洲视屏一区| 久久男女视频| 亚洲国产精品第一区二区三区 | 亚洲午夜久久久久久尤物 | 国产精品自拍三区| 欧美中文字幕精品| 欧美成年网站| 99精品国产在热久久| 亚洲欧美中文日韩在线| 国产日韩欧美日韩| 亚洲黄色成人| 欧美日韩亚洲国产精品| 亚洲性xxxx| 免费不卡在线观看| 亚洲精品美女在线| 性色一区二区三区| 激情成人中文字幕| 中文国产一区| 国产亚洲欧美一区二区三区| 亚洲精品久久久久久久久久久| 欧美午夜剧场| 亚洲第一二三四五区| 欧美日韩午夜在线| 性视频1819p久久| 欧美大片在线看| 亚洲无线一线二线三线区别av| 久久久夜夜夜| aa日韩免费精品视频一| 久久免费视频一区| 国产精品99久久久久久www| 久久视频国产精品免费视频在线| 亚洲精品视频在线看| 欧美呦呦网站| 最新亚洲一区| 久久精品国产一区二区电影| 亚洲精品视频二区| 久久嫩草精品久久久精品| 99精品视频一区二区三区| 久久久夜精品| 亚洲午夜高清视频| 欧美sm重口味系列视频在线观看| 亚洲先锋成人| 欧美精品一区二区蜜臀亚洲| 性久久久久久久久久久久| 欧美理论视频| 久久精品成人欧美大片古装| 欧美色视频在线| 亚洲国产另类久久精品| 国产精品永久免费在线| 在线亚洲成人| 亚洲成在线观看| 久久精品国产精品 | 欧美成人午夜激情| 午夜日韩在线观看| 欧美日韩在线亚洲一区蜜芽| 亚洲风情亚aⅴ在线发布|