據(jù)外媒報道,近日,倫斯勒理工學院的兩位科學家撰寫了一本名為《人工智能時代語言學(Linguistics for the Age of AI)》的書。
該書探討了目前的人工智能學習方法在自然語言理解 (natural language understanding,NLU) 中的瓶頸,并嘗試探索未來發(fā)展智能代理(intelligent agents)的途徑。
《人工智能時代語言學》的作者 Marjorie McShane 和 Sergei Nirenburg 發(fā)現(xiàn)了一種突破人工智能學習語言瓶頸的新方法,并稱為“語言賦能智能體(Language endowed intelligent agents,LEIA)”。該方法能在減少訓練模型數(shù)據(jù)量的情況下,進一步提升人工智能理解人類語言的準確性。
他們認為,人工智能系統(tǒng)必須超越對詞語字面意思理解的范疇。他們在書中用案例顯示了,自然語言理解系統(tǒng)能夠幫助人工智能理解世界、向人類解釋他們的知識并在探索世界的過程中學習。
▲ 《人工智能時代語言學》
一、AI 學語言的兩種方法:被動告知 or 主動學習?
例如一個歧義語句的案例:“開刀的是她父親”。這句話有兩種理解方式,她的父親是醫(yī)生去操作開刀手術,或者她的父親是被醫(yī)生開刀的患者。
有些語句單獨看充滿了歧義,但人類能夠通過語境來解決這些歧義。我們通過說話者的語氣、語境和對話的一般邏輯以及生活基本常識的線索來構建上下文。當我們的直覺和知識未能幫助我們理解句子的時候,我們會提出疑問。對我們(人類)來說,確定上下文的過程是很容易的。但是讓計算機用程序思維來理解相同的過程并不簡單。
科學家提出了兩種方式來嘗試解決這個問題。
第一種方式是科學家在人工智能發(fā)展的初期使用的??茖W家通過知識庫(Knowledge-based)系統(tǒng)來確定句子中的每一個單詞的作用,并提取上下文的含義。但知識庫系統(tǒng)依賴大量的關于語言、情境和世界的特征(features)。這些信息可能有著各自的來源,并且(在計算機中)需要獨立的計算方式。
知識庫提供了可靠(reliable)和可解釋(explainable)的語言分析方法。但后來它們逐漸“失寵”了,因為它們需要太多的人力來設計特征、創(chuàng)建詞匯結構(lexical structures)和本體(ontologies),以及開發(fā)將所有這些部分結合在一起的軟件系統(tǒng)。研究人員認為知識工程(knowledge engineering)的瓶頸是手動工作(manual effort,大量的人工操作且不能窮舉所有結果),他們嘗試尋求其他方法來進行語言處理(language processing)。
“公眾認為任何試圖克服這種所謂的知識瓶頸的努力都是徒勞的,這深刻影響了人工智能的發(fā)展道路,特別是自然語言處理,使該領域遠離了理性主義、基于知識的方法,并促成了經(jīng)驗主義的出現(xiàn)?!盡cShane 和 Nirenburg 在《人工智能時代的語言學》中寫道。
近幾十年來,機器學習算法(machine learning algorithms)已經(jīng)成為神經(jīng)語言程序?qū)W(Neuro-Linguistic Programming,NLP)和自然語言理解(Natural Language Understanding,NLU)的核心。
部分科學家逐漸開始使用第二種方式,利用知識學習系統(tǒng)(knowledge-lean systems)來訓練機器學習模型,使人工智能通過統(tǒng)計關系來處理語境問題。在訓練過程中,機器學習模型需要處理大量的文本資料,并根據(jù)單詞與單詞相鄰位置的方式來調(diào)整其參數(shù)。在這些模型中,語境是由單詞序列之間的統(tǒng)計關系決定的,而不是單詞背后的含義。不過,數(shù)據(jù)集越大,例子越多樣化,這些數(shù)字參數(shù)就越能捕捉到單詞彼此之間的各種出現(xiàn)方式(能夠記錄單詞與單詞的排列參數(shù))。
知識學習系統(tǒng)之所以得到普及,主要是因為大量的計算資源和大型數(shù)據(jù)集可以被用來訓練機器學習系統(tǒng)。通過維基百科等公共數(shù)據(jù)庫,科學家們已經(jīng)能夠收集龐大的數(shù)據(jù)集,并針對翻譯、文本生成和問答等各種任務,設置機器學習的專項訓練。
二、機器記錄了數(shù)據(jù)并不意味“理解”了數(shù)據(jù)
今天,我們的深度學習模型可以生成文章長度的文本序列,回答科學考試問題,編寫軟件源代碼以及回答基本的客戶服務查詢。這些領域之所以能取得進展,是因為深度學習架構(LSTMs,Transformers)得到了改進。更重要的是,神經(jīng)網(wǎng)絡研究每年都有新的進展。
但是,雖然更大的深度神經(jīng)網(wǎng)絡可以在特定任務上逐步取得進展,但它們并不能解決“通用自然語言理解(general natural language understanding)”這一更寬泛的問題。這就是為什么各種實驗表明,即使是最復雜的語言模型也無法回答有關世界是如何運作的簡單問題。
在 McShane 和 Nirenburg 的書中,他們把目前人工智能系統(tǒng)解決的問題描述為“唾手可得的水果(low-hanging fruit)”任務。一些科學家認為,繼續(xù)沿著神經(jīng)網(wǎng)絡的道路前進,最終會解決機器學習正面的語言學問題。但 McShane 和 Nirenburg 認為,還有更根本的問題需要解決。
“當前的系統(tǒng)不像人類,它們不知道自己在做什么以及為什么這樣做。它們解決問題的方法也不像人類,而且它們不依賴于世界、語言或機構的互動?!彼麄儗懙溃跋喾?,它們在很大程度上依賴于將通用機器學習算法應用于越來越大的數(shù)據(jù)集,并得到現(xiàn)代計算機驚人的速度和存儲容量的支持?!?/p>
▲ 人工智能
三、真正了解學習意義的 AI 才真“智能”
身為認知科學家和計算語言學家的 McShane 表示,機器學習必須克服幾個障礙,其中首先是意義的缺失(真正讓計算機了解學習的意義,而不是單純的背答案)。
“統(tǒng)計/機器學習(The statistical/machine learning,S-ML)方法并不試圖計算意義(compute meaning)(目前的計算機學習僅能進行數(shù)據(jù)處理,并不能真正理解數(shù)據(jù)的含義)?!盡cShane 說。“從業(yè)者(部分研究人員)認為單詞(在句子中)足夠代表它的含義,但事實并非如此。當涉及到完整的上下文意義時,一個句子中的單詞(意思)只是冰山一角。對人工智能來說,混淆詞語的含義就像把船開向冰山一樣令人擔憂(人工智能在不能完全正確理解語言指令含義的時候,會導致后續(xù)的一系列錯誤)。”
在大多數(shù)情況下,機器學習系統(tǒng)通過縮小任務范圍或擴大數(shù)據(jù)集來回避處理詞義的問題。但是,即使一個大型的神經(jīng)網(wǎng)絡能夠“創(chuàng)作”一段長文本并保持語義的連貫性,它仍然不能理解它所“寫”的詞句的含義。
“人們可以搭建一個看起來十分“智能”的系統(tǒng),但實際上它們(人工智能)并不知道發(fā)生了什么(例如,GPT-3)。”McShane 說。
▲ GPT-3
所有基于深度學習的語言模型,只要你問它們一系列瑣碎但相關的問題,它們就會開始崩潰,因為它們的參數(shù)無法捕捉日常生活中無限的復雜性。在這個問題上投入更多的數(shù)據(jù)并不能讓它們變得更加“智能”。
四、賦能 AI 突破語言學習的瓶頸
在他們的書中,McShane 和 Nirenburg 提出了一種不需要求助于純機器學習(純機器學習需要大量數(shù)據(jù)),而且解決了自然語言理解的“知識瓶頸”的方法,它被稱為“語言賦能智能體(LEIA)”。它有三個關鍵特征:
1.LEIAs 能夠理解敏感語境下的語言含義,不至于造成歧義。
2.LEIAs 可以向人類解釋它們(AI)的思想、行動和決策
3.LEIAs 能夠在與“世界”互動中終身自主學習,減少人類對其擴展知識庫的需求。
LEIAs 對自然語言進行了六個階段的處理,從確定單詞在句子中的作用,到語義分析,最后到情景推理。這些階段使得 LEIA 能夠解決單詞和短語不同含義之間的沖突,并將句子整合到主體工作的更廣泛的環(huán)境中(將句子的表達方式調(diào)整的更像人類的語言)。
LEIA 為它們的語言表達設置了信心水平,并知道它們的技能(語言技巧)和知識在哪里達到了它們的極限。在遇到理解力的極限的情況下,它們能與人類 (或其他高等智能) 進行交互以解決語言歧義的問題。這些互動反過來使它們能夠?qū)W習新事物,擴大它們的知識儲備。
LEIA 將句子轉(zhuǎn)化為文本意義表述(text-meaning representations,TMR),即句子中每個詞的可解釋和可操作的定義。根據(jù)其(語句)背景和目標,LEIA 決定哪些語言需要跟進處理。例如,如果一個維修機器人與幾個人類技術人員處在同一個機器維修的車間,而人類在討論昨天的體育比賽結果,那么人工智能應該能夠區(qū)分與它的工作(機器維修)相關的句子和它可以忽略的句子(體育)。
LEIAs 主要使用 knowledge-based systems,但它們也在處理語言的過程中使用了機器學習模型,特別是在語言處理句子解析的初始階段。
五、AI 真的需要模擬人類大腦思維嗎?
LEIA 的主要特點之一是整合了知識庫(knowledge bases)、推理模塊(reasoning modules)和感覺輸入(sensory input)。目前,計算機視覺(computer vision)和自然語言處理等領域的重疊很少。
正如 McShane 和 Nirenburg 在他們的書中所指出的,“語言理解不能脫離整體認知(overall agent cognition),因為語言理解有時也需要其他感知模式(如視覺)的輔助。
在現(xiàn)實世界中,人類利用豐富的感官體驗來填補語言表達的空白(例如,當有人告訴您“看那邊?”時,他們假設您可以看到他們的手指指向的位置,并補充信息)。人類對話的思維邏輯能做出假設并省略語言中的細節(jié)。我們希望與我們交互的智能代理(intelligent agent)都具有類似的功能。
“我們完全理解為什么單獨處理的方式(silo approaches)是現(xiàn)在的常態(tài),畢竟解決每一個問題都很困難,而且每個問題都需要單獨進行研究,”McShane 說?!叭欢?,如果不進行整合,問題是無法從根源解決的(人工智能語言學習的發(fā)展應該整合多個模式)?!?/p>
同時,實現(xiàn)類似人類的思考邏輯并不要求 LEIA 完全復制人類大腦。McShane 說:“至少在這個發(fā)展階段,神經(jīng)科學(neuroscience)不能為我們的認知建模(cognitive modeling)提供任何語法上和內(nèi)容上的幫助?!盡cShane 和 Nirenburg 認為,復制大腦并不能為人工智能解釋目標(語句)所服務。
▲ 人工智能 2
結語:讓 AI 像人一樣使用語言仍需時間
McShane 和 Nirenburg 提出了 LEIA 作為新的人工智能學習方法,這不僅減少了訓練所需的數(shù)據(jù)量,而且解決了自然語言理解存在的“知識瓶頸”問題。
同時,他們也承認開發(fā) LEIA 是一個持續(xù)的、長期的、范圍廣泛的工作計劃,有很多工作需要做。而最終的目標就是“使機器能夠像人類一樣熟練地使用語言”。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。