IT之家 2 月 18 日消息,近年來,本地運(yùn)行大語言模型(LLM)的趨勢(shì)愈發(fā)明顯,越來越多的人開始在個(gè)人電腦或系統(tǒng)上部署這些模型。
IT之家注意到,越南開發(fā)者 Binh Pham 最近嘗試使用樹莓派 Zero(Raspberry Pi Zero)進(jìn)行了一項(xiàng)創(chuàng)新實(shí)驗(yàn)。他成功地將這款設(shè)備改造為一個(gè)小型 USB 驅(qū)動(dòng)器,使其能夠在本地運(yùn)行 LLM,無需任何額外設(shè)備。這一項(xiàng)目主要得益于 llama.cpp 和 llamafile 的支持,這兩者結(jié)合了指令集和一系列輕量級(jí)軟件包,旨在提供一種離線的輕量級(jí)聊天機(jī)器人體驗(yàn)。
然而,由于樹莓派 Zero 已經(jīng)問世八年,其硬件性能有限,因此將 llama.cpp 移植到該設(shè)備并非易事。首先,Pham 將設(shè)備連接到 USB 接口,并為其 3D 打印了一個(gè)外殼。
在解決了硬件問題后,項(xiàng)目又因樹莓派 Zero W 的 512MB 內(nèi)存限制而變得更加復(fù)雜。在嘗試將 llama.cpp 編譯到該設(shè)備時(shí),Pham 遇到了失敗,此前也無人嘗試在樹莓派 Zero 或 One 上編譯該軟件。
問題的根源在于樹莓派 Zero 的 CPU 采用的是 ARMv6 架構(gòu)。為了克服這一障礙,Pham 不得不對(duì) llama.cpp 的 ARMv8 指令集進(jìn)行轉(zhuǎn)換,并移除所有基于現(xiàn)代硬件的優(yōu)化或注釋。
在成功修改 llama.cpp 源代碼后,Pham 將注意力轉(zhuǎn)向軟件的運(yùn)行和用戶體驗(yàn)的優(yōu)化。他構(gòu)建了一個(gè)基于文本文件輸入的 LLM 實(shí)現(xiàn),這些文本文件作為主要的提示,而 LLM 則會(huì)根據(jù)這些提示生成故事,并以完整的輸出文件形式返回。
為了測(cè)試性能,Pham 設(shè)置了 64 個(gè) token 的限制,并對(duì) 15M 到 136M 不等的多個(gè)模型進(jìn)行了基準(zhǔn)測(cè)試。其中,Tiny15M 模型的每個(gè) token 處理速度為 223 毫秒,而較大的 Lamini-T5-Flan-77M 模型的每個(gè) token 處理速度為 2.5 秒,SmolLM2-136M 模型的每個(gè) token 處理速度為 2.2 秒。
這些 token 處理速度表明,該設(shè)備在許多實(shí)際應(yīng)用場(chǎng)景中可能會(huì)顯得過慢。盡管這一項(xiàng)目具有創(chuàng)新性,但在實(shí)際應(yīng)用中,使用老舊的輕量級(jí)硬件運(yùn)行本地 LLM 并不具備太多實(shí)用價(jià)值。相比之下,使用更復(fù)雜的模型,例如在樹莓派 5 上運(yùn)行 Deepseek,可能會(huì)是更好的選擇。
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。