基于BERT-CNN的新聞文本分類(lèi)的知識(shí)蒸餾方法研究
所屬分類(lèi):技術(shù)論文
上傳者:aetmagazine
文檔大小:3576 K
標(biāo)簽: 新聞文本 BERT CNN
所需積分:0分積分不夠怎么辦?
文檔介紹:近年來(lái),隨著大數(shù)據(jù)時(shí)代進(jìn)入人類(lèi)的生活之后,人們的生活中出現(xiàn)很多無(wú)法識(shí)別的文本、語(yǔ)義等其他數(shù)據(jù),這些數(shù)據(jù)的量十分龐大,語(yǔ)義也錯(cuò)綜復(fù)雜,這使得分類(lèi)任務(wù)更加困難。如何讓計(jì)算機(jī)對(duì)這些信息進(jìn)行準(zhǔn)確的分類(lèi),已成為當(dāng)前研究的重要任務(wù)。在此過(guò)程中,中文新聞文本分類(lèi)成為這個(gè)領(lǐng)域的一個(gè)分支,這對(duì)國(guó)家輿論的控制、用戶日常行為了解、用戶未來(lái)言行的預(yù)判都有著至關(guān)重要的作用。針對(duì)新聞文本分類(lèi)模型參數(shù)量多和訓(xùn)練時(shí)間過(guò)長(zhǎng)的不足,在最大限度保留模型性能的情況下壓縮訓(xùn)練時(shí)間,力求二者折中,故提出基于BERT-CNN的知識(shí)蒸餾。根據(jù)模型壓縮的技術(shù)特點(diǎn),將BERT作為教師模型,CNN作為學(xué)生模型,先將BERT進(jìn)行預(yù)訓(xùn)練后再讓學(xué)生模型泛化教師模型的能力。實(shí)驗(yàn)結(jié)果表明,在模型性能損失約2.09%的情況下,模型參數(shù)量壓縮約為原來(lái)的1/82,且時(shí)間縮短約為原來(lái)的1/670。
現(xiàn)在下載
VIP會(huì)員,AET專(zhuān)家下載不扣分;重復(fù)下載不扣分,本人上傳資源不扣分。
主站蜘蛛池模板: 国产精品盗摄一区二区在线| 推油少妇久久99久久99久久| 亚洲理论电影在线观看| 羞羞网站在线观看| 国产成人久久精品二区三区| 永久免费在线观看视频| 在线视频一区二区三区| 两个人在线观看的高清| 日本免费福利视频| 九色视频在线观看| 91在线国内在线播放老师| 少妇大叫太大太爽受不了| 久久99精品免费视频| 日韩人妻无码精品专区| 亚洲人成77777在线播放网站 | 中文精品字幕电影在线播放视频 | 国产精品反差婊在线观看| 99精品久久99久久久久| 女人让男人桶的小视频| 一级美国乱色毛片| 成全动漫视频在线观看免费高清 | 日本高清免费一本视频无需下载| 亚洲人成网站免费播放| 欧美日本高清在线不卡区| 亚洲精品一区二区三区四区乱码 | 国产欧美一区二区三区视频在线观看| 3d无尽3d无尽动漫同人| 国产麻豆videoxxxx实拍| 99久久精品日本一区二区免费| 女人体1963毛片a级| xxxxx做受大片在线观看免费| 忘忧草社区中文字幕| 三级极精品电影| 成人在线观看国产| 中文字幕一区视频| 成年性午夜免费视频网站不卡| 久久99中文字幕久久| 日产精品卡一卡2卡三卡乱码工厂| 久久亚洲免费视频| 日本三级欧美三级人妇英文 | 国产69精品久久久久777|