《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 人工智能 > 業(yè)界動(dòng)態(tài) > 【ChatGPT專題】解讀 ChatGPT 背后的技術(shù)重點(diǎn):RLHF、IFT、CoT、紅藍(lán)對(duì)抗

【ChatGPT專題】解讀 ChatGPT 背后的技術(shù)重點(diǎn):RLHF、IFT、CoT、紅藍(lán)對(duì)抗

2023-02-15
來(lái)源: Hugging Face

  近段時(shí)間,ChatGPT 橫空出世并獲得巨大成功,使得 RLHF、SFT、IFTCoT 等這些晦澀的縮寫(xiě)開(kāi)始出現(xiàn)在普羅大眾的討論中。這些晦澀的首字母縮略詞究竟是什么意思?為什么它們?nèi)绱酥匾课覀冋{(diào)查了相關(guān)的所有重要論文,以對(duì)這些工作進(jìn)行分類(lèi),總結(jié)迄今為止的工作,并對(duì)后續(xù)工作進(jìn)行展望。

  我們先來(lái)看看基于語(yǔ)言模型的會(huì)話代理的全景。ChatGPT 并非首創(chuàng),事實(shí)上很多組織在 OpenAI 之前就發(fā)布了自己的語(yǔ)言模型對(duì)話代理 (dialog agents),包括 Meta 的 BlenderBot,Google 的 LaMDA,DeepMind 的 Sparrow,以及 Anthropic 的 Assistant (Anthropic 的 Claude 就是部分基于 Assistant 繼續(xù)開(kāi)發(fā)而得的)。

  語(yǔ)言模型對(duì)話代理產(chǎn)品論文鏈接:

  Meta 的 BlenderBot:

  https://arxiv.org/abs/2208.03188

  Google 的 LaMDA:

  https://arxiv.org/abs/2201.08239

  DeepMind 的 Sparrow:

  https://arxiv.org/abs/2209.14375

  Anthropic 的 Assistant:

  https://arxiv.org/abs/2204.05862

  其中一些團(tuán)隊(duì)還公布了他們構(gòu)建開(kāi)源聊天機(jī)器人的計(jì)劃,并公開(kāi)分享了路線圖 (比如 LAION 團(tuán)隊(duì)的 Open Assistant),其他團(tuán)隊(duì)肯定也有類(lèi)似的內(nèi)容,但尚未宣布。你可以在 Open Assistant 的 GitHub 倉(cāng)庫(kù)中找到其愿景 & 路線圖文檔: https://github.com/LAION-AI/Open-Assistant

  下表根據(jù)是否能公開(kāi)訪問(wèn)、訓(xùn)練數(shù)據(jù)、模型架構(gòu)和評(píng)估方向的詳細(xì)信息對(duì)這些 AI 聊天機(jī)器人進(jìn)行了比較。ChatGPT 沒(méi)有這些信息的記錄,因此我們改為使用 InstructGPT 的詳細(xì)信息,這是一個(gè)來(lái)自 OpenAI 的指令微調(diào)模型,據(jù)信它是 ChatGPT 的基礎(chǔ)。

微信截圖_20230215173810.png微信截圖_20230215173836.png

  我們觀察到,盡管在訓(xùn)練數(shù)據(jù)、模型和微調(diào)方面存在許多差異,但也存在一些共性。上述所有聊天機(jī)器人的一個(gè)共同目標(biāo)是「指令依從 (instruction following)」,即遵循用戶指定的指令。例如,要求 ChatGPT 寫(xiě)一首關(guān)于微調(diào)的詩(shī)。

 微信截圖_20230215173855.png

  從預(yù)測(cè)文本到遵循指令

  通常,基礎(chǔ)模型的語(yǔ)言建模目標(biāo)不足以讓模型學(xué)會(huì)以有用的方式遵循用戶的指令。模型創(chuàng)建者使用「指令微調(diào) (Instruction Fine-Tuning,IFT)」方法來(lái)達(dá)到該目的,該方法除了使用情感分析、文本分類(lèi)、摘要等經(jīng)典 NLP 任務(wù)來(lái)微調(diào)模型外,還在非常多樣化的任務(wù)集上向基礎(chǔ)模型示范各種書(shū)面指令及其輸出,從而實(shí)現(xiàn)對(duì)基礎(chǔ)模型的微調(diào)。這些指令示范由三個(gè)主要部分組成 —— 指令、輸入和輸出。輸入是可選的,一些任務(wù)只需要指令,如上文使用 ChatGPT 做開(kāi)放式文本生成的示例。當(dāng)存在輸入時(shí),輸入和輸出組成一個(gè)「實(shí)例 (instance)」。給定指令可以有多個(gè)輸入和輸出實(shí)例。如下例 (摘自 Wang 等,'22):

微信截圖_20230215173912.png

  IFT 的訓(xùn)練數(shù)據(jù)通常是人工編寫(xiě)的指令及用語(yǔ)言模型自舉 (bootstrap) 生成的實(shí)例的集合。在自舉時(shí),先使用少樣本技術(shù)輸入一些樣本給 LM 用于提示它 (如上圖所示),隨后要求 LM 生成新的指令、輸入和輸出。每一輪都會(huì)從人工編寫(xiě)的樣本和模型生成的樣本中各選擇一些送給模型。人類(lèi)和模型對(duì)創(chuàng)建數(shù)據(jù)集的貢獻(xiàn)構(gòu)成了一個(gè)譜圖,見(jiàn)下圖:

 微信截圖_20230215173926.png

  譜圖的一端是純模型生成的 IFT 數(shù)據(jù)集,例如 Unnatural Instructions (Honovich 等,'22);另一端是經(jīng)由社區(qū)的大量努力精心制作的指令如 Super-natural instructions (Wang 等,'22)。在這兩者之間的工作是使用一小組高質(zhì)量的種子數(shù)據(jù)集,然后進(jìn)行自舉生成最終數(shù)據(jù)集,如 Self-Instruct (Wang 等,'22)。為 IFT 整理數(shù)據(jù)集的另一種方法是將現(xiàn)有的用于各種任務(wù) (包括提示)的高質(zhì)量眾包 NLP 數(shù)據(jù)集使用統(tǒng)一模式或不同模板轉(zhuǎn)換為指令。這一系列工作包括 T0 (Sanh 等,'22)、Natural instructions 數(shù)據(jù)集 (Mishra 等,'22)、FLAN LM (Wei 等,'22) 和 OPT-IML (Iyer 等,'22)。

  論文鏈接:

  Unnatural Instructions (Honovich 等, '22):

  https://arxiv.org/abs/2212.09689

  Super-natural instructions (Wang 等, '22):

  https://arxiv.org/abs/2204.07705

  Self-Instruct (Wang 等, '22):

  https://arxiv.org/abs/2212.10560

  T0 (Sanh 等, '22):

  https://arxiv.org/abs/2110.08207

  Natural instructions 數(shù)據(jù)集 (Mishra 等, '22):

  https://arxiv.org/abs/2104.08773

  FLAN LM (Wei 等, '22):

  https://arxiv.org/abs/2109.01652

  OPT-IML (Iyer 等, '22):

  https://arxiv.org/abs/2212.12017

  安全地遵循指令

  然而,經(jīng)過(guò)指令微調(diào)的 LM 并不總是能生成 有幫助的 和 安全的 響應(yīng)。這種行為的例子包括通過(guò)總是給出無(wú)益的回應(yīng)來(lái)逃避,例如 “對(duì)不起,我不明白。” 或?qū)γ舾性掝}的用戶輸入生成不安全的響應(yīng)。為了減輕這種行為,模型開(kāi)發(fā)人員使用 有監(jiān)督微調(diào) (Supervised Fine-tuning, SFT),在高質(zhì)量的人類(lèi)標(biāo)注數(shù)據(jù)上微調(diào)基礎(chǔ)語(yǔ)言模型,以提高有用性和無(wú)害性。例如,請(qǐng)參閱下面的表格(摘自 Sparrow 論文的附錄 F)。

  SFT 和 IFT 聯(lián)系非常緊密。指令微調(diào)可以看作是有監(jiān)督微調(diào)的一個(gè)子集。在最近的文獻(xiàn)中,SFT 階段經(jīng)常被用于提高響應(yīng)的安全性,而不是接在 IFT 后面提高指令相應(yīng)的具體性。將來(lái),這種分類(lèi)和劃分應(yīng)該日臻成熟,形成更清晰的使用場(chǎng)景和方法論。

微信截圖_20230215173953.png

  谷歌的 LaMDA 也根據(jù)一組規(guī)則 (論文附錄 A) 在帶有安全標(biāo)注的對(duì)話數(shù)據(jù)集上進(jìn)行微調(diào)。這些規(guī)則通常由模型創(chuàng)建者預(yù)先定義和開(kāi)發(fā),涵蓋廣泛的主題,包括傷害、歧視、錯(cuò)誤信息。

  微調(diào)模型

  同時(shí),OpenAI 的 InstructGPT、DeepMind 的 Sparrow 和 Anthropic 的 Constitutional AI 使用 人類(lèi)反饋強(qiáng)化學(xué)習(xí) (Reinforcement Learning From Human Feedback,RLHF) 來(lái)微調(diào)模型,該方法使用基于人類(lèi)偏好的標(biāo)注數(shù)據(jù)。在 RLHF 中,根據(jù)人類(lèi)反饋來(lái)對(duì)模型的響應(yīng)進(jìn)行排序標(biāo)注 (如,根據(jù)人類(lèi)偏好選擇文本簡(jiǎn)介)。然后,用這些帶標(biāo)注的響應(yīng)來(lái)訓(xùn)練偏好模型,該模型用于返回 RL 優(yōu)化器的標(biāo)量獎(jiǎng)勵(lì)。最后,通過(guò)強(qiáng)化學(xué)習(xí)訓(xùn)練對(duì)話代理來(lái)模擬偏好模型。有關(guān)更多詳細(xì)信息,請(qǐng)參閱我們之前關(guān)于 RLHF 的文章: ChatGPT 背后的“功臣”——RLHF 技術(shù)詳解。

  思維鏈 (Chain-of-thought,CoT) 提示 (Wei 等,'22) 是指令示范的一種特殊情況,它通過(guò)引發(fā)對(duì)話代理的逐步推理來(lái)生成輸出。使用 CoT 微調(diào)的模型使用帶有逐步推理的人工標(biāo)注的指令數(shù)據(jù)集。這是 Let’s think step by step 這一著名提示的由來(lái)。下面的示例取自 Chung 等,'22,橙色高亮的部分是指令,粉色是輸入和輸出,藍(lán)色是 CoT 推理。

微信截圖_20230215174015.png

  如 Chung 等,'22 中所述,使用 CoT 微調(diào)的模型在涉及常識(shí)、算術(shù)和符號(hào)推理的任務(wù)上表現(xiàn)得更好。

  如 Bai 等,'22 的工作所示,CoT 微調(diào)也顯示出對(duì)無(wú)害性非常有效 (有時(shí)比 RLHF 做得更好),而且對(duì)敏感提示,模型不會(huì)回避并生成 “抱歉,我無(wú)法回答這個(gè)問(wèn)題” 這樣的回答。更多示例,請(qǐng)參見(jiàn)其論文的附錄 D。

  微信截圖_20230215174045.png

  論文鏈接:

  思維鏈提示 (Wei 等, '22):

  https://arxiv.org/abs/2201.11903

  Let’s think step by step:

  https://arxiv.org/abs/2205.11916

  CoT 圖解示例 (Chung 等, '22):

  https://arxiv.org/abs/2210.11416

  CoT 微調(diào)也顯示出對(duì)無(wú)害性非常有效 (Bai 等, '22):

  ttps://www.anthropic.com/constitutional.pdf

  要點(diǎn)

  與預(yù)訓(xùn)練數(shù)據(jù)相比,您只需要非常小的一部分?jǐn)?shù)據(jù)來(lái)進(jìn)行指令微調(diào) (幾百個(gè)數(shù)量級(jí));

  使用人工標(biāo)注的有監(jiān)督微調(diào)使模型輸出更安全和有用;

  CoT 微調(diào)提高了模型在需要逐步思考的任務(wù)上的性能,并使它們?cè)诿舾性掝}上不那么回避。

  對(duì)話代理的進(jìn)一步工作

  這個(gè)博客總結(jié)了許多關(guān)于使對(duì)話代理有用的現(xiàn)有工作。但仍有許多懸而未決的問(wèn)題有待探索。我們?cè)谶@里列出了其中的一些。

  RL 在從人類(lèi)反饋中學(xué)習(xí)有多重要?我們能否通過(guò)在 IFT 或 SFT 中使用更高質(zhì)量的數(shù)據(jù)進(jìn)行訓(xùn)練來(lái)獲得 RLHF 的性能?

  為了安全的角度看,Sparrow 中的 SFT+RLHF 與 LaMDA 中僅使用 SFT 相比如何?

  鑒于我們有 IFT、SFT、CoT 和 RLHF,預(yù)訓(xùn)練有多大的必要性?如何折衷?人們應(yīng)該使用的最佳基礎(chǔ)模型是什么 (公開(kāi)的和非公開(kāi)的)?

  本文中引用的許多模型都經(jīng)過(guò) 紅藍(lán)對(duì)抗 (red-teaming) 的精心設(shè)計(jì),工程師特地搜尋故障模式并基于已被揭示的問(wèn)題改進(jìn)后續(xù)的訓(xùn)練 (提示和方法)。我們?nèi)绾蜗到y(tǒng)地記錄這些方法的效果并重現(xiàn)它們?

  紅藍(lán)對(duì)抗 (red-teaming) 論文地址:

  https://arxiv.org/abs/2209.07858

  P.s. 如果您發(fā)現(xiàn)本博客中的任何信息缺失或不正確,請(qǐng)告知我們。

  引用:

  Rajani et al.,"What Makes a Dialog Agent Useful?", Hugging Face Blog, 2023.

  BibTeX 引用:

  @article {rajani2023ift,

  author = {Rajani, Nazneen and Lambert, Nathan and Sanh, Victor and Wolf, Thomas},

  title = {What Makes a Dialog Agent Useful?},

  journal = {Hugging Face Blog},

  year = {2023},

  note = {https://huggingface.co/blog/dialog-agents},

  }


敬請(qǐng)關(guān)注電子技術(shù)應(yīng)用2023年2月22日==>>商業(yè)航天研討會(huì)<<

微信圖片_20230210170337.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無(wú)法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問(wèn)題,請(qǐng)及時(shí)通過(guò)電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。
亚洲一区二区欧美_亚洲丝袜一区_99re亚洲国产精品_日韩亚洲一区二区
久久伊人免费视频| 国产精品露脸自拍| 中国女人久久久| 亚洲国产日韩欧美| 欧美自拍丝袜亚洲| 午夜精品久久久久久久男人的天堂| 亚洲精品乱码久久久久| 亚洲第一区在线观看| 国产综合视频| 国内精品久久久久久久影视麻豆| 国产精品视频成人| 国产精品久久久久久久午夜片| 欧美日韩精品免费观看视一区二区 | 国产日韩成人精品| 国产嫩草一区二区三区在线观看| 国产精品亚洲аv天堂网| 国产精品porn| 国产精品成av人在线视午夜片| 欧美日韩网站| 国产精品电影网站| 国产精品日韩在线播放| 国产精品日韩一区| 国产欧美 在线欧美| 国产欧美在线观看一区| 国产亚洲激情视频在线| 狠狠噜噜久久| 亚洲激情网址| 99国产精品99久久久久久粉嫩| 99精品欧美一区| 亚洲午夜电影在线观看| 亚洲女爱视频在线| 欧美一区二区日韩| 亚洲国产精品日韩| 9l视频自拍蝌蚪9l视频成人| 亚洲婷婷综合色高清在线| 亚洲欧美电影院| 久久精品亚洲乱码伦伦中文| 另类av导航| 欧美另类视频在线| 国产精品sss| 国产欧美一级| 在线成人h网| 亚洲精品久久久久久久久久久久久 | 亚洲国产婷婷综合在线精品| 亚洲人成在线观看| 亚洲视频在线观看一区| 亚洲欧美自拍偷拍| 久久蜜桃精品| 欧美精品18+| 国产精品免费观看在线| 国产亚洲成av人在线观看导航| 在线看国产一区| 99热这里只有成人精品国产| 香蕉成人久久| 999亚洲国产精| 欧美一区二区视频网站| 老色鬼久久亚洲一区二区| 欧美噜噜久久久xxx| 国产精品一香蕉国产线看观看| 尤物在线精品| 亚洲桃花岛网站| 欧美自拍偷拍| 在线亚洲精品福利网址导航| 欧美在线啊v一区| 欧美激情二区三区| 国产情侣久久| 亚洲精品欧美精品| 欧美一区二区三区视频在线| 一区二区三区精密机械公司 | 欧美激情精品久久久六区热门 | 亚洲福利视频一区| 亚洲一级免费视频| 老司机一区二区三区| 国产精品久久久久91| 在线观看亚洲视频啊啊啊啊| 亚洲线精品一区二区三区八戒| 亚洲激情在线激情| 欧美有码在线观看视频| 欧美日韩精品一二三区| 国产一区二区日韩| 亚洲午夜国产成人av电影男同| 亚洲国产精品一区二区三区| 亚洲欧美激情四射在线日| 欧美成人日本| 韩国美女久久| 亚洲一区二区三区中文字幕| 亚洲精品免费一二三区| 久久国产精品久久久久久久久久 | 国产精品久久久久久久久免费桃花| 在线观看的日韩av| 性久久久久久久久久久久| 亚洲一区成人| 欧美日韩国产成人在线91| 狠狠色狠狠色综合人人| 亚洲主播在线| 亚洲一二三四久久| 欧美女同在线视频| 亚洲高清不卡在线| 久久国产婷婷国产香蕉| 午夜精品一区二区三区在线 | 欧美日韩视频在线| 亚洲第一在线综合在线| 欧美影院视频| 午夜久久tv| 欧美日韩在线一区二区| 亚洲欧洲三级电影| 最新日韩精品| 老色批av在线精品| 国产一区三区三区| 午夜视频一区| 欧美在线免费观看| 国产美女扒开尿口久久久| 亚洲亚洲精品在线观看| 亚洲男人影院| 欧美性色综合| 夜夜夜久久久| 亚洲一级网站| 欧美午夜无遮挡| 一本色道综合亚洲| 亚洲影院色无极综合| 欧美日韩另类字幕中文| 亚洲精品一区二区在线| 日韩一级片网址| 欧美日本韩国一区| 亚洲毛片播放| 亚洲在线播放| 欧美亚男人的天堂| 亚洲色诱最新| 亚洲欧洲av一区二区| 国产精品久久久久三级| 亚洲午夜激情网站| 欧美在线国产| 国外成人在线| 亚洲三级影片| 欧美欧美在线| 一本久道久久综合婷婷鲸鱼| 亚洲午夜伦理| 国产精品嫩草99a| 午夜久久影院| 老色批av在线精品| 亚洲精品1区2区| 亚洲性av在线| 国产乱码精品一区二区三区忘忧草| 亚洲欧美三级在线| 久久综合九色综合网站| 亚洲国产日韩一区二区| 亚洲精品中文字幕在线| 欧美日韩综合| 亚洲欧美日韩国产综合精品二区| 欧美在线视频日韩| 伊人色综合久久天天| 艳女tv在线观看国产一区| 国产精品porn| 欧美在线视频免费观看| 免费亚洲电影| 亚洲免费观看高清在线观看| 午夜免费在线观看精品视频| 国产亚洲精品高潮| 99av国产精品欲麻豆| 国产精品丝袜91| 亚洲国产欧美不卡在线观看| 欧美精品免费观看二区| 亚洲视频一区二区在线观看| 久久精品99久久香蕉国产色戒| 在线国产精品一区| 亚洲视频一区二区| 国产一二精品视频| 99成人精品| 国产色产综合产在线视频| 91久久久亚洲精品| 国产精品久久久久免费a∨| 久久精品亚洲精品国产欧美kt∨| 欧美日韩国产在线播放网站| 亚洲综合电影| 欧美1级日本1级| 亚洲欧美日韩精品久久亚洲区| 美女视频黄a大片欧美| 亚洲乱码精品一二三四区日韩在线| 亚洲在线观看免费视频| 激情综合自拍| 亚洲免费视频在线观看| 永久免费视频成人| 亚洲欧美成人综合| 亚洲国产精品久久久久秋霞不卡| 亚洲欧美国产毛片在线| 国语自产精品视频在线看一大j8 | 欧美经典一区二区三区| 午夜精品一区二区三区在线播放| 欧美黄在线观看| 欧美一级视频一区二区| 欧美日本中文字幕| 久久国产福利国产秒拍| 国产精品videosex极品| 亚洲激情视频网| 国产欧美日韩视频一区二区| 亚洲精品三级| 国产主播一区二区三区四区| 在线视频亚洲| 1000部国产精品成人观看 | 欧美一级大片在线免费观看|