設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

揭秘 iPhone 里的 Transformer:基于 GPT-2 架構(gòu),分詞器含 emoji,MIT 校友出品

量子位 2023/9/18 23:15:57 責(zé)編:遠洋

蘋果 Transformer 的“秘密”,讓發(fā)燒友給扒出來了。

大模型浪潮下,即使保守如蘋果,也每逢發(fā)布會必提“Transformer”。

比如,在今年的 WWDC 上,蘋果就已宣布,全新版本的 iOS 和 macOS 將內(nèi)置 Transformer 語言模型,以提供帶文本預(yù)測功能的輸入法。

蘋果官方?jīng)]有透露更多信息,但技術(shù)愛好者們可坐不住了。

一位名叫 Jack Cook 的小哥,就把 macOS Sonoma beta 翻了個底朝天,結(jié)果,還真挖出不少新鮮信息:

  • 模型架構(gòu)上,Cook 小哥認為蘋果的語言模型更像是基于 GPT-2 打造的。

  • 在分詞器(tokenizer)方面,表情符號在其中十分突出。

更多細節(jié),一起來看。

基于 GPT-2 架構(gòu)

先來回顧一下蘋果基于 Transformer 的語言模型能在 iPhone、MacBook 等設(shè)備上實現(xiàn)怎樣的功能。

主要體現(xiàn)在輸入法方面。語言模型加持下的蘋果自帶輸入法,可以實現(xiàn)單詞預(yù)測和糾錯的功能。

Jack Cook 小哥具體測試了一下,發(fā)現(xiàn)這個功能主要實現(xiàn)的是針對單個單詞的預(yù)測。

△ 圖源:Jack Cook 博客文章

模型有時也會預(yù)測即將出現(xiàn)的多個單詞,但這僅限于句子語義十分明顯的情況,比較類似于 Gmail 里的自動完成功能。

△ 圖源:Jack Cook 博客文章

那么這個模型具體被裝在了哪里?一通深入挖掘之后,Cook 小哥確定:

我在 /System/ Library / LinguisticData / RequiredAssets_en.bundle/ AssetData / en.lm/ unilm.bundle 中找到了預(yù)測文本模型。

原因是:

1、unilm.bundle 中的許多文件在 macOS Ventura(13.5)里并不存在,僅出現(xiàn)在了新版本 macOS Sonoma beta(14.0)里。

2、unilm.bundle 中存在一個 sp.dat 文件,這在 Ventura 和 Sonoma beta 里都能找到,但 Sonoma beta 的版本中更新了明顯像是分詞器的一組 token。

3、sp.dat 中 token 的數(shù)量跟 unilm.bundle 中的兩個文件 ——unilm_joint_cpu.espresso.shapeunilm_joint_ane.espresso.shape 能匹配得上。這兩個文件描述了 Espresso / CoreML 模型中各層的形狀。

進而,小哥根據(jù) unilm_joint_cpu 中描述的網(wǎng)絡(luò)結(jié)構(gòu),推測蘋果模型是基于 GPT-2 架構(gòu)打造的:

主要包含 token embeddings、位置編碼、解碼器塊和輸出層,每個解碼器塊中都有類似 gpt2_transformer_layer_3d 這樣的字眼。

△ 圖源:Jack Cook 博客文章

根據(jù)每層大小,小哥還推測,蘋果模型約有 3400 萬參數(shù),隱藏層大小是 512。也就是說,它比 GPT-2 最小的版本還要小。

小哥認為,這主要是因為蘋果想要一種不太耗電,但同時能夠快速、頻繁運行的模型。

而蘋果官方在 WWDC 上的說法是,“每點擊一個鍵,iPhone 就會運行模型一次”。

不過,這也就意味著,這個文本預(yù)測模型并不能很好地完整續(xù)寫句子或段落。

△ 圖源:Jack Cook 博客文章

模型架構(gòu)之外,Cook 小哥還挖出了分詞器(tokenizer)的相關(guān)信息。

他在 unilm.bundle/ sp.dat 里發(fā)現(xiàn)了一組數(shù)量為 15000 的 token,值得關(guān)注的是,其中包含 100 個 emoji。

Cook 揭秘庫克

盡管此 Cook 非彼庫克,小哥的博客文章一發(fā)出,還是吸引了不少關(guān)注。

基于他的發(fā)現(xiàn),網(wǎng)友們熱烈地討論起蘋果在用戶體驗和前沿技術(shù)應(yīng)用之間的平衡大法。

回到 Jack Cook 本人,他本科和碩士畢業(yè)于 MIT 的計算機專業(yè),目前還在攻讀牛津大學(xué)的互聯(lián)網(wǎng)社會科學(xué)碩士學(xué)位。

此前,他曾在英偉達實習(xí),專注于 BERT 等語言模型的研究。他還是《紐約時報》的自然語言處理高級研發(fā)工程師。

那么,他的這一番揭秘是否也引發(fā)了你的一些思考?歡迎在評論區(qū)分享觀點~

原文鏈接:

https://jackcook.com/2023/09/08/predictive-text.html

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:iPhone人工智能,大模型

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機APP應(yīng)用 魔方 最會買 要知