《電子技術應用》
您所在的位置:首頁 > 可編程邏輯 > 業界動態 > 學界 | 小改進,大飛躍:深度學習中的最小牛頓求解器

學界 | 小改進,大飛躍:深度學習中的最小牛頓求解器

2018-06-05

牛頓法等利用二階梯度信息的方法在深度學習中很少有應用,我們更喜歡直接使用一階梯度信息求解最優參數。本論文提出了一種新型基于二階信息的最優化方法,它的內存占用與帶動量的 SGD 一樣小,但當收斂速度卻比只使用一階信息的最優化方法快。


1 引言


隨機梯度下降(SGD)和反向傳播 [9] 是現今深度網絡訓練的算法核心。深度學習的成功證明了這種組合的有效性,它已經成功地運用在各種具有大型數據集和極深網絡的不同任務中。


然而,盡管 SGD 有很多優點,但這種一階方法的收斂速度(就迭代次數而言)還有很大的改進區間。盡管單次 SGD 迭代的計算速度非常快并且在優化開始時有迅速的進展,但很快,優化就會進入一個緩慢提升的階段。這可以歸因于迭代進入了目標函數錯誤縮放的參數空間中。在這種情況下,快速的進展需要在參數空間內不同的方向上采用不同的步長,而 SGD 無法實現這種迭代。


諸如牛頓法及其變體的二階方法根據目標函數的局部曲率重新調整梯度,從而消除了這個問題。對于 R 中的標量損失,這種調整采用 H?1J 的形式,其中 H 是黑塞矩陣(Hessian matrix;二階導數)或者是目標空間中局部曲率的一個近似,J 是目標函數的梯度。事實上,它們可以實現局部尺度不變性,并在梯度下降停滯 [24] 的地方取得顯著進展。盡管在其它領域它們是無可比擬的,但一些問題阻礙了它們在深度模型中的應用。首先,因為黑塞矩陣的參數數量以二次形式增長,且通常有著數百萬的參數,故而對它求逆或存儲它是不現實的。其次,由于隨機抽樣,任何黑塞矩陣的估計都必然產生噪聲和病態的條件數,因而經典的求逆方法如共軛梯度對于黑塞矩陣是不穩健的。


在本文中,我們提出了一種新的算法,它可以克服這些困難并使得二階優化適用于深度學習。我們特別展示了如何去避免存儲黑塞矩陣或其逆矩陣的任何估計值。反之,我們將牛頓更新,即 H?1J 的計算看成是求解一個能通過梯度下降法求解的線性系統。通過交叉求解步驟和參數更新步驟,求解這個線性系統的成本會隨著時間推移被攤銷。此外,與共軛梯度法不同,梯度下降的選擇使其對噪聲穩健。我們提出的方法增加了很小的開銷,因為一個黑塞矩陣向量積可通過兩步自動微分的現代網絡實現。有趣的是,我們證明了我們的方法等價于帶有一個額外項的動量 SGD(也稱為重球法),這個額外項能計算曲率。因此,我們將該方法命名為 CURVEBALL。與其他方法不同,我們方法的總內存占用與動量 SGD 一樣小。

微信圖片_20180605172409.jpg


圖 1:已知解決方案的問題。左:不同求解器的 Stochastic Rosenbrock 函數軌跡(較深的陰影區域表示較高的函數值)。右:針對軌跡圖繪制的損失函數與迭代數之間的關系。

微信圖片_20180605172438.jpg

表 1:在小數據集上優化器的比較。對于每一個優化器,我們展示了解決問題所需迭代數的平均值 ± 標準差。對于隨機 Rosenbrock 函數,U[λ1, λ2] 表示來自 U[λ1, λ2] 的噪聲(詳見 4.1)。

微信圖片_20180605172525.jpg

圖 2:不同優化器在不同數據集和網絡上的性能對比。在一系列實際設置下,包括大型數據集(ImageNet)、是否使用批量歸一化和過度參數化的模型(ResNet),我們的方法似乎表現十分良好。

微信圖片_20180605172546.jpg

表 2:不同模型和優化方法的最佳百分比誤差(訓練/驗證誤差)。CURVEBALL λ 表示使用了重新調整的參數 λ(第 3 節)。括號內的數字表示帶有額外 Dropout 正則化(比例 0.3)的驗證誤差。前 3 列在是在 CIFAR - 10 上訓練的,第 4 列是在 ImageNet - 100 上訓練的。

微信圖片_20180605172608.jpg

圖 3:訓練誤差 vs. 訓練時間(基于 CIFAR - 10 模型)。


論文:Small steps and giant leaps: Minimal Newton solvers for Deep Learning(小改進,大飛躍:深度學習中的最小牛頓求解器)


微信圖片_20180605172634.jpg

論文地址:https://arxiv.org/abs/1805.08095


我們提出了一種能直接替換現今深度學習求解器的快速二階方法。與隨機梯度下降法(SGD)比,它只需要在每次迭代時進行 2 次額外的前向自動微分操作,同時它的運算成本與 2 次標準前向傳播相當且易于實現。我們的方法解決了現有二階求解器長期存在的問題,即在每次迭代時需要對黑塞矩陣的近似精確求逆或使用共軛梯度法,而這個過程既昂貴又對噪聲敏感。相反,我們提出保留逆黑塞矩陣投影梯度的單個估計,并在每次迭代時更新一次。這個估計值有著相同的維度,并與 SGD 中常用的動量變量相似。黑塞矩陣的估計是變動的。我們首先驗證我們的方法—CurveBall 在一些已知閉式解的小問題(帶噪聲的 Rosenbrock 函數和退化的 2 層線性網絡)上的有效性,而這是現今深度學習解釋器仍在努力的地方。我們接著在 CIFAR、ImageNet 上訓練一些大型模型,包括 ResNet,VGG-f 網絡,我們的方法在沒有調整超參數的情況下,表現出更快的收斂性。最后,所有的代碼已經開源。


本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。
主站蜘蛛池模板: 免费a级毛片18以上观看精品| 国产精品嫩草影院免费| 久久精品国产亚洲AV麻豆~| 男人精品网站一区二区三区| 国产丝袜视频一区二区三区| 午夜性色吃奶添下面69影院| 在线视频国产网址你懂的在线视频| 中文精品久久久久国产网站| 最近日本中文字幕免费完整 | 国产女人18毛片水真多18精品| 99久久精品费精品国产 | 最新版天堂中文在线官网| 亚洲精品亚洲人成在线| 精品日韩在线视频| 国产乱理伦片在线观看| 99精品众筹模特私拍在线| 国产精品欧美日韩一区二区| a级片免费在线观看| 性欧美熟妇videofreesex| 久久久久人妻一区精品色| 最近最好最新2018中文字幕免费| 亚洲欧洲高清有无| 玩物无删减版180分钟| 又粗又紧又湿又爽的视频| 试看120秒做受小视频免费| 国产永久免费观看的黄网站 | 2019国产开嫩苞视频| 奶大灬舒服灬太大了一进一出 | 日本三区四区免费高清不卡| 五月婷婷在线视频| 欧美日韩中文国产va另类| 亚洲视频在线免费播放| 第一福利官方导航| 午夜亚洲av日韩av无码大全| 色综合久久中文字幕综合网| 国产婷婷一区二区三区| 一级片免费试看| 把数学课代表按在地上c视频| 久久aa毛片免费播放嗯啊| 日日插人人插天天插| 久久久久久久99精品国产片|