沒想到,打開 AI 黑盒這件事,可能還要靠 AI 自己來實現(xiàn)了。
OpenAI 的最新研究來了一波大膽嘗試:
讓 GPT-4 去解釋 GPT-2 的行為模式。
結(jié)果顯示,超過 1000 個神經(jīng)元的解釋得分在 0.8 以上 —— 也就是說 GPT-4 能理解這些神經(jīng)元。
要知道,“AI 黑箱難題”長期以來是一個熱議話題,尤其是大語言模型領(lǐng)域,人類對其內(nèi)部工作原理的理解還非常有限,這種“不透明化”也進一步引發(fā)了人類對 AI 的諸多擔(dān)憂。
目前推進 AI 可解釋性研究的一個簡單辦法,就是逐個分析大模型中的神經(jīng)元,手動檢查以確定它們各自所代表的數(shù)據(jù)特征。
但對于規(guī)模已經(jīng)達到百億、千億級別的大規(guī)模神經(jīng)網(wǎng)絡(luò)來說,工作量和工作難度就都漲了億點點吧。
由此,OpenAI 的研究人員想到,干嘛不讓 AI 去自動化搞定這個大工程?
在這項最新的研究中,他們將 GPT-4 打造成了一個理解 AI 行為模式的工具,把 GPT-2 超過 30 萬個神經(jīng)單元都解釋了一遍,并和實際情況比對進行評分。
最終生成的解釋數(shù)據(jù)集和工具代碼,已對外開源。
研究人員表示:未來,這種 AI 工具可能在改善 LLM 性能上發(fā)揮巨大作用,比如減少 AI 偏見和有害輸出。
解釋接近人類水平
具體來看,整個研究的步驟可以分為三步。
第一步,先給 GPT-4 一段文本,并展示 GPT-2 在理解這段文本時激活的神經(jīng)元情況。
然后讓 GPT-4 來解釋,這段文本中神經(jīng)元的激活情況。
比如示例中給出了一段漫威復(fù)聯(lián)的文本,GPT-4 分析的激活神經(jīng)元為:
電影、角色和娛樂
第二步,讓 GPT-4 開始模擬,這些被解釋的神經(jīng)元接下來會做什么。
GPT-4 給出了一段內(nèi)容。
第三步,讓 GPT-2 真實的神經(jīng)元激活來生成結(jié)果,然后和 GPT-4 模擬的結(jié)果進行比對,研究人員會對此打分。
在博客給出的示例中,GPT-4 的得分為 0.34.
使用這個辦法,研究人員讓 GPT-4 解釋了 GPT-2 一共 307200 個神經(jīng)元。
OpenAI 表示,使用這一基準(zhǔn),AI 解釋的分?jǐn)?shù)能接近人類水平。
從總體結(jié)果來看,GPT-4 在少數(shù)情況下的解釋得分很高,在 0.8 分以上。
他們還發(fā)現(xiàn),不同層神經(jīng)元被激活的情況,更高層的會更抽象。
此外,團隊還總結(jié)了如下幾點結(jié)論:
如果讓 GPT-4 重復(fù)解釋,它的得分能更高
如果使用更強大的模型來解釋,得分也會上升
用不同的激活函數(shù)訓(xùn)練模型,能提高解釋分?jǐn)?shù)
總結(jié)來看就是,雖然 GPT-4 目前的表現(xiàn)一般,但是這個方法和思路的提升空間還有很大。
團隊也強調(diào),現(xiàn)在在 GPT-2 上的表現(xiàn)都不太好,如果換成更大、更復(fù)雜的模型,表現(xiàn)也會比較堪憂。
同時這種模式也能適用于聯(lián)網(wǎng)的 LLM,研究人員認(rèn)為可以通過簡單調(diào)整,來弄清楚神經(jīng)元如何決策搜索內(nèi)容和訪問的網(wǎng)站。
此外他們還表示,在創(chuàng)建這個解釋系統(tǒng)時并沒有考慮商業(yè)化問題,理論上除了 GPT-4,其他 LLM 也能實現(xiàn)類似效果。
接下來,他們打算解決研究中的這幾個問題:
AI 神經(jīng)元行為十分復(fù)雜,但 GPT-4 給的解釋非常簡單,所以有些復(fù)雜行為還無法解釋;
希望最終自動找到并解釋復(fù)雜的整個神經(jīng)回路,神經(jīng)元和注意力頭一起工作;
目前只解釋了神經(jīng)元的行為,但沒解釋行為背后的機制;
整個過程算力消耗巨大。
網(wǎng)友:快進到 AI 創(chuàng)造 AI
意料之中,這項研究馬上在網(wǎng)絡(luò)上引發(fā)熱議。
大家的腦洞畫風(fēng) be like:“AI 教人類理解 AI?!?/p>
“AI 教人類關(guān)掉 AI 中存在風(fēng)險的神經(jīng)元?!?/p>
還有人開始暢想,AI 理解 AI 會快速發(fā)展為 AI 訓(xùn)練 AI(已經(jīng)開始了),然后再過不久就是 AI 創(chuàng)造新的 AI 了。
當(dāng)然這也引發(fā)了不少擔(dān)憂,畢竟 GPT-4 本身不還是個黑盒嘛。
人類拿著自己不理解的東西,讓它解釋另一個自己不理解的東西,這個風(fēng)險 emm……
這項研究由 OpenAI 負(fù)責(zé)對齊的團隊提出。
他們表示,這部分工作是他們對齊研究的第三大支柱的一部分:
我們想要實現(xiàn)自動化對齊。這種想法一個值得思考的方面是,它可能隨著 AI 的發(fā)展而擴展更多。隨著未來 AI 模型變得越來越智能,我們也能找到對 AI 更好的解釋。
論文地址:
https://openaipublic.blob.core.windows.net/neuron-explainer/paper/index.html
參考鏈接:
[1]https://openai.com/research/language-models-can-explain-neurons-in-language-models
[2]https://www.globalvillagespace.com/tech/openais-tool-explains-language-model-behavior/
本文來自微信公眾號:量子位 (ID:QbitAI),作者:明敏
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。