設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

不拆分單詞也可以做 NLP,哈工大最新模型在多項(xiàng)任務(wù)中打敗 BERT,還能直接訓(xùn)練中文

量子位 2022/3/5 15:13:16 責(zé)編:瀟公子

眾所周知,BERT 在預(yù)訓(xùn)練時(shí)會(huì)對某些單詞進(jìn)行拆分 (術(shù)語叫做“WordPiece”)。比如把“l(fā)oved”、“l(fā)oving”和“l(fā)oves”拆分成“l(fā)ov”、“ed”、“ing”和”es”。

目的是縮減詞表、加快訓(xùn)練速度,但這樣一來,在某些時(shí)候反而會(huì)阻礙模型的理解能力。比如把”lossless”分成”loss”和”less”的時(shí)候。

現(xiàn)在,來自哈工大和騰訊 AI Lab 的研究人員,嘗試?yán)貌蛔鰡卧~拆分的詞匯表開發(fā)了一個(gè) BERT 風(fēng)格的預(yù)訓(xùn)練模型 ——WordBERT。結(jié)果,這個(gè) WordBERT 在完形填空測試和機(jī)器閱讀理解方面的成績相比 BERT 有了很大提高。

在其他 NLP 任務(wù),比如詞性標(biāo)注 (POS-Tagging)、組塊分析 (Chunking) 和命名實(shí)體識(shí)別 (NER) 中,WordBERT 的表現(xiàn)也都優(yōu)于 BERT。由于不用分詞,這個(gè) WordBERT 還可以直接進(jìn)行中文訓(xùn)練。更值得一提的是,它在性能提升的同時(shí),推理速度并沒有變慢。

可謂一舉多得。

NO WordPieces

與 BERT 類似,WordBERT 包含兩個(gè)組件:詞向量(word embedding)和 Transformer 層。和以前的模型一樣,WordBERT 采用多層雙向 Transformer 來學(xué)習(xí)語境表示(contextualized representation)。

word embedding 則是用來獲得單詞向量表示的參數(shù)矩陣,與把單詞分成 WordPiece 的 BERT 相比,WordBERT 的詞匯由完整的單詞組成。他們用自然語言處理軟件包 Spacy 處理數(shù)據(jù),生成了兩個(gè)詞匯表,一個(gè)規(guī)模為 500K,一個(gè)為 1M。詞匯表中還被單獨(dú)添加了 5 個(gè)特殊單詞:[PAD]、[UNK]、 [CLS]、[SEP] 和 [MASK]。

通過不同的詞匯表規(guī)模、初始化配置和不同語言,最后研究人員一共訓(xùn)練出四個(gè)版本的 WordBERT:WordBERT-500K、WordBERT-1M、WordBERT-Glove 和 WordBERT-ZH。

它們的配置如上,嵌入?yún)?shù)都是隨機(jī)初始化的,嵌入維數(shù)和基準(zhǔn) BERT 保持一致。其中 WordBERT-Glove 用的詞匯表是現(xiàn)成的 Glove vocabulary,里面包含約 190 萬個(gè)未編碼的單詞,該模型由相應(yīng)的單詞向量(word vectors)在 WordBERT 之上初始化而來。WordBERT-ZH 則是用中文詞匯訓(xùn)練出來的 WordBERT,它也保持了 768 的詞嵌入維數(shù)。

性能與速度兼具

在測試環(huán)節(jié)中,完形填空的測試數(shù)據(jù)集來自 CLOTH,它由中學(xué)教師設(shè)計(jì),通常用來對中國初高中學(xué)生進(jìn)行入學(xué)考試。其中既有只需在當(dāng)前句子中進(jìn)行推理的簡單題,也有需要在全文范圍內(nèi)進(jìn)行推理的難題。結(jié)果如下:

△ M 代表初中,H 代表高中

WordBERT-1M 獲得了最佳成績,并接近人類水平。它在高中題比 BERT 高了 3.18 分,初中題高了 2.59 分,這說明 WordBERT 在復(fù)雜任務(wù)中具有更高的理解和推理能力。在詞性標(biāo)注、組塊分析和命名實(shí)體識(shí)別(NER)等分類任務(wù)中,WordBERT 的成績?nèi)缦拢?/p>

相比來看,它在 NER 任務(wù)上的優(yōu)勢更明顯一些(后兩列)。

研究人員推測,這可能是 WordBERT 在學(xué)習(xí)低頻詞的表征方面有優(yōu)勢,因?yàn)槊麑?shí)體(named entities)往往就是一些不常見的稀有詞。對于“中文版”WordBERT-ZH,研究人員在 CLUE benchmark 上的各種任務(wù)中測試其性能。除了 BERT,對比模型還包括 WoBERT 和 MarkBERT,這也是兩個(gè)基于 BERT 預(yù)訓(xùn)練的中文模型。

結(jié)果,WordBERT-ZH 在四項(xiàng)任務(wù)中都打敗了所有其他對比模型,在全部五項(xiàng)任務(wù)上的表現(xiàn)都優(yōu)于基線 BERT,并在 TNEWS(分類)、OCNLI(推理)和 CSL(關(guān)鍵字識(shí)別)任務(wù)上取得了 3 分以上的差距。這說明,基于詞的模型對中文也是非常有效的。

最后,實(shí)驗(yàn)還發(fā)現(xiàn):性能不差的 WordBERT,在不同任務(wù)上的推理速度也并未“落于下風(fēng)”。

關(guān)于作者

一作為哈工大計(jì)算機(jī)專業(yè)在讀博士生馮掌印,研究方向?yàn)?NLP、文本生成。

他曾在微軟亞研院自然語言計(jì)算組、哈工大和科大訊飛聯(lián)合實(shí)驗(yàn)室實(shí)習(xí),在 NLP 領(lǐng)域的頂會(huì) ENNLP 發(fā)表過一篇一作論文。

通訊作者為史樹明,來自騰訊 AI Lab。

論文地址:

https://arxiv.org/abs/2202.12142

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:NLP,模型,哈工大

軟媒旗下網(wǎng)站: IT之家 最會(huì)買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會(huì)買 要知