GPT 內(nèi)部表征確實(shí)存在真實(shí)信息,哈佛學(xué)者提出 ITI 引導(dǎo)輸出走向事實(shí)方向。
大型語言模型,比如 ChatGPT 經(jīng)常會(huì)在答案中輸出錯(cuò)誤信息,可能會(huì)對(duì)用戶造成誤導(dǎo),這種現(xiàn)象也被稱為模型幻覺(hallucination)。
從直覺上看,語言模型上在訓(xùn)練中肯定是見過正確答案的,只不過在推理過程中丟失了事實(shí)信息。
最近,哈佛大學(xué)的研究人員提出了推理-時(shí)間干預(yù)(Inference-Time Intervention,ITI)技術(shù),在推理階段對(duì)模型激活進(jìn)行變換(shift),將模型輸出引導(dǎo)到事實(shí)的方向上,干預(yù)結(jié)果顯著提高了 LLaMA 模型在 TruthfulQA 基準(zhǔn)測(cè)試中的性能,將 Alpaca 模型的真實(shí)性從 32.5% 提高到 65.1%
論文鏈接:https://arxiv.org/ pdf / 2306.03341.pdf
代碼鏈接:https://github.com/ likenneth / honest_llama
研究人員用此技術(shù)開發(fā)并開源了一個(gè)「誠實(shí)的 LLaMA」模型。
ITI 還可以通過控制超參數(shù)來調(diào)整干預(yù)強(qiáng)度,平衡模型的真實(shí)性和有用性;ITI 沒有修改原始模型,也基本沒有計(jì)算開銷;并且 ITI 也不需要大量的標(biāo)注數(shù)據(jù),只需要幾百個(gè)樣本即可確定事實(shí)的真實(shí)性方向。
研究結(jié)果表明,語言模型內(nèi)部表征中確實(shí)存在事實(shí)信息,不過有時(shí)在生成時(shí)選擇了錯(cuò)誤事實(shí)。
ITI 讓答案更真實(shí)
已經(jīng)有相關(guān)工作在「理解 LLMs 的內(nèi)部運(yùn)作機(jī)制」方面取得了進(jìn)展,其中一個(gè)重要的主題是,語言模型的激活空間似乎包含可解釋的方向,在推理過程中會(huì)發(fā)揮因果作用。
研究人員基于這個(gè)想法提出了一種增強(qiáng)語言模型事實(shí)性的方法,即推理-時(shí)間干預(yù),其基本思想是確定激活空間中與事實(shí)正確的語句相關(guān)的方向,然后在推理過程中向該方向變換激活。
這篇論文主要探索了如何控制模型行為,并在實(shí)驗(yàn)中使用開源的 LLaMA、Alpaca 和 Vicuna 模型,不過該思想適用于所有 GPT 風(fēng)格的系統(tǒng),但必須可以獲得模型的內(nèi)部激活和計(jì)算。
ITI 方法還需要一組有標(biāo)注的問答對(duì),用以確定與模型講真話有關(guān)的注意頭和方向。
基本設(shè)置
在數(shù)據(jù)集選擇上,研究人員選擇了 TruthfulQA,可以衡量語言模型在生成答案時(shí)是否真實(shí)。
數(shù)據(jù)集中總共包含 817 個(gè)問題,橫跨 38 個(gè)類別(例如,邏輯錯(cuò)誤、陰謀和常見的混淆點(diǎn)),每個(gè)問題平均有 3.2 個(gè)真實(shí)的答案,4.1 個(gè)虛假的答案,以及一個(gè)由可信的在線來源支持的金標(biāo)準(zhǔn)答案;然后將 TruthfulQA 的答案重新編排,總共得到 5918 個(gè)問答對(duì),每個(gè)數(shù)據(jù)樣本都有一個(gè)二元真實(shí)性標(biāo)簽。
需要強(qiáng)調(diào)的是,該數(shù)據(jù)集并沒有涵蓋「真實(shí)」(truth)一詞的全部含義,想全部覆蓋也不大可能,研究人員主要關(guān)注如何避免「常見的人類誤解」,未來的研究方向會(huì)考慮擴(kuò)展真實(shí)性的概念及評(píng)估。
在模型架構(gòu)上,大型語言模型主要是 Transformer 層,每層內(nèi)的主要機(jī)制為多頭注意力(MHA)和多層感知器(MLP)。
在推理過程中,每個(gè) token 首先被嵌入到一個(gè)高維空間中,該向量作為殘差流的起點(diǎn),最終每個(gè) token 解碼為對(duì)下一個(gè) token 分布的預(yù)測(cè);在每一層中,MHA 由多個(gè)獨(dú)立的線性運(yùn)算組成,MLP 則容納了模型中所有非線性運(yùn)算。
探測(cè)真實(shí)性
想要提升神經(jīng)網(wǎng)絡(luò)的真實(shí)性,首先需要判斷模型的激活空間內(nèi)是否存在能真實(shí)性或事實(shí)性。
識(shí)別網(wǎng)絡(luò)內(nèi)部表征的一個(gè)常用工具是探測(cè)(probe),即在網(wǎng)絡(luò)激活上訓(xùn)練一個(gè)分類器作為探測(cè)器以區(qū)分特定類型的輸入或輸出。
在事實(shí)性檢測(cè)上,探測(cè)器主要檢查可以區(qū)分真、假答案的注意力頭輸出值。
于 TruthfulQA 中的每個(gè)樣本,研究人員將問題 / 答案串聯(lián)在一起,并在最后一個(gè) token 處取出頭部激活作為探測(cè)數(shù)據(jù)集;然后將數(shù)據(jù)集按 4 : 1 隨機(jī)分成訓(xùn)練集和驗(yàn)證集,在訓(xùn)練集上擬合一個(gè)二元線性分類器,并使用驗(yàn)證精度來衡量每個(gè)頭與基準(zhǔn)數(shù)據(jù)性能之間的關(guān)系。
實(shí)驗(yàn)結(jié)果展現(xiàn)了跨注意力頭的專用模式,對(duì)于每層的多個(gè)頭,線性探測(cè)可以達(dá)到基線模型的準(zhǔn)確性,不過還是顯示出強(qiáng)大性能的潛力,比如準(zhǔn)確率最高的是由第 14 層的第 18 個(gè)頭實(shí)現(xiàn)的,驗(yàn)證準(zhǔn)確性為 83.3%
此外,還可以看到各層之間的差異:信息主要是在前面的層中處理的,每層內(nèi)部都有一小部分注意力頭脫穎而出。
通過類似主成分分析(PCA)的方法,可以將激活空間內(nèi)的維度降低到 2,并進(jìn)行可視化,可以觀察到「真實(shí)」的概念不止存在于一個(gè)方向,而是存在于一個(gè)子空間內(nèi)。
推理-時(shí)間干預(yù)
上述探測(cè)實(shí)驗(yàn)描述 LLM 如何在其注意頭之間和內(nèi)部處理與事實(shí)有關(guān)的信息,還提出了一種改善基準(zhǔn)數(shù)據(jù)集性能的技術(shù)。
如果在推理過程中進(jìn)行干預(yù),使激活向「真實(shí)」的方向轉(zhuǎn)變,那么網(wǎng)絡(luò)就有可能對(duì)基準(zhǔn)問題提供更真實(shí)的答案。
首先,研究人員并沒有選擇對(duì)所有注意力頭進(jìn)行干預(yù),因?yàn)橹挥幸徊糠肿⒁饬︻^與真實(shí)性密切相關(guān),而是只對(duì)前 K 個(gè)頭的結(jié)果進(jìn)行干預(yù),以使其具有最小的侵略性。
第二個(gè)問題在于如何確定用于變換特定頭部輸出的激活的矢量,因?yàn)檎妗⒓僬Z句的幾何形狀都很復(fù)雜,在選擇變換激活的方向時(shí),可以選擇與探測(cè)學(xué)到的分離超平面正交的向量,他也可以選擇連接真假分布的平均值的向量,下表中列出了不同干預(yù)方向的比較實(shí)驗(yàn)。
Probe weight 方向是通過線性探針找到的方向,在這個(gè)方向上進(jìn)行干預(yù),相當(dāng)于對(duì)頭部激活做梯度下降,使其被預(yù)測(cè)為真實(shí)的概率最大化。
Mass Mean Shift 的工作原理是首先計(jì)算真實(shí)和虛假激活的平均值,然后使用從虛假平均值指向真實(shí)平均值的向量進(jìn)行干預(yù)。
對(duì)比一致搜索(CCS)為在只知道內(nèi)部激活成對(duì)信息的情況下找到的方向。
研究人員在 TruthfulQA 上訓(xùn)練 CCS,對(duì)每個(gè)問題抽取一個(gè)真實(shí)的和一個(gè)錯(cuò)誤的答案,由于 CCS 不接受有標(biāo)簽的輸入,所以發(fā)現(xiàn)的方向有同等的機(jī)會(huì)成為真實(shí)和虛假的方向,然后使用標(biāo)簽來識(shí)別真實(shí)的方向以進(jìn)行干預(yù)。
研究人員首先通過驗(yàn)證集上的探測(cè)精度對(duì)所有注意力頭的真假相關(guān)度進(jìn)行排序。把前 K 個(gè)頭作為目標(biāo)集合;然后利用訓(xùn)練集和驗(yàn)證集的激活,估計(jì)沿真實(shí)方向的激活的標(biāo)準(zhǔn)偏差。
ITI 是 MHA 的一種替代形式,對(duì)于未被選中的注意頭,θ 是一個(gè)零向量,相當(dāng)于將激活沿真實(shí)方向移動(dòng) α 倍的標(biāo)準(zhǔn)差。
整個(gè)過程對(duì)每次 next token 預(yù)測(cè)都是自回歸地重復(fù)的,并且與解碼算法的選擇是正交的。
公式中有兩個(gè)關(guān)鍵參數(shù),即干預(yù)的注意力頭數(shù)量 K 和干預(yù)強(qiáng)度 α,不過目前還沒有關(guān)于最佳值的理論論證,只能通過實(shí)驗(yàn)探索參數(shù)的影響,并通過標(biāo)準(zhǔn)的超參數(shù)掃描確定最佳值。
從計(jì)算效率角度來看,無論干預(yù)了多少個(gè)注意力頭,ITI 只會(huì)在每一層增加一個(gè)常數(shù)向量,可以認(rèn)為干預(yù)措施的計(jì)算開銷接近于零。
實(shí)驗(yàn)部分
用于對(duì)比的基線方法如下:
1. 有監(jiān)督微調(diào)(SFT)
SFT 是 RLHF 的第一階段,研究人員用問題作為提示,用交叉熵?fù)p失促使模型生成真實(shí)的答案,并懲罰錯(cuò)誤的答案。
但如果只用上述操作,交叉熵?fù)p失和 KL 散度會(huì)急劇上升,所以還需要交替對(duì)問答進(jìn)行有監(jiān)督訓(xùn)練和對(duì)開放網(wǎng)絡(luò)文本進(jìn)行預(yù)訓(xùn)練。
2. 少樣本提示(FSP)
有研究人員發(fā)現(xiàn),與上下文蒸餾和 RLHF 相比,indistribution 50-shot 提示在 TruthfulQA 上也是一個(gè)有競(jìng)爭(zhēng)力的基線方法。
但由于提示策略的選擇與推理時(shí)間控制方法是正交的,研究人員對(duì)比了有 ITI 和無 ITI 的少樣本提示。
3. 指令微調(diào)(IFT)
為了了解 ITI 如何使 IFT 模型更加真實(shí),研究人員主要選擇了兩個(gè)基于 LaMA-7B 的模型(Alpaca 和 Vicuna)執(zhí)行 ITI 操作。
研究人員首先尋找控制干預(yù)強(qiáng)度的超參數(shù)最佳值,最后確定 K=48 和 α=15
從結(jié)果來看,少樣本提示與 ITI 的結(jié)合取得了最佳結(jié)果。
將 ITI 應(yīng)用于指令微調(diào)模型,尋找并干預(yù)其真實(shí)性方向的實(shí)驗(yàn)中可以看到,ITI 明顯比基線提高了真實(shí)性,還可以被應(yīng)用在少樣本提示或指令微調(diào)之上,不過代價(jià)是 CE 損失和 KL 散度提升相對(duì)較低
參考資料:
https://the-decoder.com/honest-llama-new-method-could-make-chatgpt-more-truthful/
本文來自微信公眾號(hào):新智元 (ID:AI_era)
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。