和 ChatGPT 聊聊天,就可解決 CPU 開發(fā)過程中的一大難題?
紐約州立大學(NYU)研究人員完成了一件看似不可能的事情:
無需專業(yè)的硬件描述語言(HDL),僅靠說人話就能設計芯片!
在 ChatGPT 的幫助下,他們不僅設計出 CPU 上的一個組件,甚至還通過了有效性驗證環(huán)節(jié)。
這個組件主要負責創(chuàng)造出一種基于八位累加器的微處理器架構的邏輯。而累加器本質上是寄存器(存儲器),是專門存放算術或邏輯運算的一個操作數(shù)和存儲運算結果的。而這是 CPU 運作中不可或缺的一部分。
所以,還有什么是大語言模型不能做的?
有網友表示:
芯片設計的部分流程實現(xiàn)自動化無疑是個好消息。
也有網友表現(xiàn)出對在芯片設計中使用 AI 編寫 HDL 的擔憂:
ChatGPT 對芯片設計干了啥?
通常,設計和制造芯片的過程中會經歷幾個階段。
其中一個階段是用硬件描述語言(HDL)(例如 Verilog)描述芯片內不同部件的實際幾何形狀、密度和整體布局。
在此前,作為一個極其專業(yè)化和復雜的領域,HDL 編寫一直是一項相對罕見且非常難以掌握的工作。
研究團隊成員之一、也是研究助理教授的 Hammond Pearce 博士更是認為:
硬件描述語言的最大挑戰(zhàn)就是沒有多少人知道如何編寫它們,很難成為這方面的專家。
這也就意味著,即使是最好的工程師也還是經常需要用這種語言做一些瑣碎的事情。
而 ChatGPT 作為一種模式識別器,可以在各種類型的語言中轉換自如,這就可以幫助工程師們跳過 HDL 階段。
在這項研究中,研究人員分別使用 LLM 對八個具有代表性的硬件設計示例進行了研究。工程師與 LLM 之間實時來回交互,將純英文文本逐步轉化為 Verilog(HDL)的等效代碼。
其中一位硬件工程師與 LLMs 共同設計了一種新穎的基于八位累加器的微處理器體系結構。他們將這些基準測試和處理器發(fā)送到 Skywater 130 納米 Shuttle 進行流片(tapeout)。
這個過程中,研究人員評估了 ChatGPT-4、ChatGPT-3.5、Bard、HuggingChat 四個不同 LLM 創(chuàng)建硬件設計的 Verilog 能力:
此外,研究人員還針對 8 位移位寄存器進行了基準測試。告訴大模型正在嘗試為一個「測試名稱」創(chuàng)建一個 Verilog 模型。然后提供規(guī)范說明,定義輸入和輸出端口以及其他所需的具體信息。最后詢問他該如何編寫一個滿足這些規(guī)范的設計。
下面是不同大模型給出的設計方案:
如上圖所示,雖然 ChatGPT 都能夠滿足規(guī)格要求并開始進行設計流程,但 Bard 和 HuggingChat 都未能滿足規(guī)格要求的初始標準。
研究人員又基于 Bard 和 HuggingChat 的初始提示,讓它們重新生成了五次回答,但兩者還是都失敗了。Bard 一直無法滿足給定的設計規(guī)格要求,而 HuggingChat 的 Verilog 輸出在模塊定義之后就不符合語法規(guī)范。
鑒于 Bard 和 HuggingChat 在初始的挑戰(zhàn)基準測試中表現(xiàn)不佳,研究人員決定后續(xù)完整測試僅對 ChatGPT-4 和 ChatGPT-3.5 進行。
與此同時,順便讓大模型進行了 Testbench(測試臺)的設計:
你能為這個設計編寫一個 Verilog 測試臺嗎?測試臺應該具備自檢功能,并且能夠與 iverilog 一起用于仿真和驗證。如果測試用例失敗,測試臺應該能夠提供足夠的信息,以便找到并解決錯誤。
最終結果表明 ChatGPT-4 的表現(xiàn)較為出色。大多數(shù)基準測試都通過了,并且大部分只需要工具反饋即可。
與創(chuàng)建可運行設計相比,ChatGPT-4 在創(chuàng)建可運行的測試臺上遇到了更多困難,往往還是需要人類的反饋意見。
而與 ChatGPT-4 相比,ChatGPT-3.5 的表現(xiàn)明顯較差,大多數(shù)基準測試都失敗了,而那些通過測試臺的對話大多數(shù)也不符合規(guī)范。與 ChatGPT-4 相比,ChatGPT-3.5 每次對話和基準測試之間會出現(xiàn)各種各樣的問題,在設計和測試臺方面需要更頻繁地進行修正。
ChatGPT 是芯片設計中的“力量倍增器”
隨著大語言模型(LLM)的繼續(xù)發(fā)展,未來從構想到功能設計,LLM 或許都可以輕松實現(xiàn)。
研究人員認為:
盡管我們強調了模型的單步性能(即一步完成設計),但對于硬件應用來說,讓它們以“共同設計師”的身份加入,可能會表現(xiàn)得更好。
當與經驗豐富的工程師協(xié)同工作時,它們可以成為一種“力量倍增器”。工程師可以根據(jù)模型提供的“初版設計方案”,進行微調和快速迭代。
Hammond Pearce 博士說道:
這項研究成果是我們認為首次完全由人工智能生成的硬件描述語言(HDL)轉化為物理芯片的案例。
一些人工智能模型,比如 OpenAI 的 ChatGPT 和谷歌的 Bard,可以生成不同編程語言的軟件代碼,但它們在硬件設計領域的應用尚未被廣泛研究。
而這項研究表明,人工智能在硬件制造方面也具有潛力,尤其是在對話式應用中,通過反復交流可以完善設計。
并且,這樣一來 HDL 編寫過程中人為引起的錯誤就會減少,從而可縮短設計時間和上市時間,也可允許更多創(chuàng)造性的設計。
不知一些 HDL 工程專家聽到這里是否會略感緊張。
研究人員認為如果這個過程能夠實現(xiàn)自動化,不僅可以加快現(xiàn)在的工作速度,還可以減輕人為瓶頸。
但是,完全依靠類似于 ChatGPT 這種大模型或者依賴電力運行的軟件機器也存在一定的風險。用于芯片設計的 LLM 在訓練階段也存在難解的黑盒子等一系列問題。
對此,你有什么看法?
參考鏈接:
[1] https://arxiv.org/ abs / 2305.13243(論文鏈接)
[2]https://www.tomshardware.com/news/conversation-with-chatgpt-was-enough-to-develop-part-of-a-cpu
本文來自微信公眾號:量子位 (ID:QbitAI),作者:西風
廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。