本文來自微信公眾號:SF 中文 (ID:kexuejiaodian),作者:SF
不久前,美國人工智能研發(fā)公司 OpenAI 發(fā)布了最新的聊天機器人 ChatGPT,它的語言能力幾乎達到了真人的水平,預示著人工智能領(lǐng)域又將迎來一場變革。
文 | 凱特?達林(Kate Darling)
原文刊載于《科學焦點》2023.03 期
我記得第一次見到兒子與一個大型語言學習模型互動的場景。那時,他只有 5 歲,但已經(jīng)能與人工智能進行自然、流暢的對話了,仿佛人工智能是真正的人類似的??粗c人工智能交談,我心中五味雜陳。當時的景象歷歷在目,不僅反映了人類在人工智能領(lǐng)域取得的成就,也讓我意識到語言模型潛能無限:它正給人類與機器的互動模式帶來革命性改變。
其實,上面這整段話都是由 AI 創(chuàng)作的,它的水平已經(jīng)和我親筆寫大致相當了。如果你有過與客服機器人打交道的失望經(jīng)歷,恐怕就會好奇,怎么突然之間,我們就有能聽懂客戶需求(比如為這篇稿件寫一段開頭)、并給出得體反饋的人工智能了?
理解能力令人震驚
如今,即使是最先進的商用聊天機器人,很多時候也依然在使用預先設(shè)定好的答案。如果你問亞馬遜公司的智能語音助手 Alexa 最喜歡什么飲料,它的回答很可能是亞馬遜的某位程序員預先編好的答案。
與上述原理不同,我使用的 ChatGPT 是基于生成式預訓練轉(zhuǎn)換模型(Generative Pre-Trained Transfer model,簡稱 GPT)。這個模型可以在對話中自己生成回答。比如,它不會一板一眼地說自己最喜歡喝什么飲料,而可能會推薦你嘗嘗沙棘汁。
ChatGPT 由人工智能研發(fā)公司 OpenAI 在 2022 年 11 月發(fā)布,與谷歌、臉書等公司開發(fā)的語言模型類似,這種生成式對話人工智能正在顛覆游戲規(guī)則。
ChatGPT 的語言學習模型在互聯(lián)網(wǎng)上接受過數(shù)以十億計的海量文本訓練?;谌绱她嫶蟮臄?shù)據(jù)庫,ChatGPT 能在輸出文本時準確預測使用哪一個字最合適。雖然這不是什么新算法,但它還包含了“轉(zhuǎn)換模塊”(Transformer):通過分析完整的語句和各個句子之間的關(guān)系,ChatGPT 可以理解對話的語境。
在此之前,由于無法理解語境,聊天機器人往往聽不懂我們的問題,或是一本正經(jīng)地給出一個邏輯嚴密但沒有意義的回答。對此,我們早就習以為常。
當我的丈夫要求 ChatGPT 以諷刺辛辣的文筆寫一段向我求婚的誓詞時,ChatGPT 寫道:“冷酷無情的機器人科學家凱特?達林,雖然建立情感連接注定徒勞無功,但請你嫁給這位情難自已的人類追求者吧。”可以肯定地說,這句話絕對不是 OpenAI 的人工智能專家提前寫好的。ChatGPT 對任務的理解能力簡直令人震驚。
存在很多不確定性
轉(zhuǎn)換模塊的另一項突破在于,它顯著地減少了建立模型所需的時間。如今的科技公司擁有了海量的訓練數(shù)據(jù)、比以往更強的算力,再加上能以更少的時間搭建和訓練語言模型。這些條件正在開啟對話型人工智能的新紀元。
當然,新的語言模型也有短板。如果被用作商用聊天機器人,語言模型的自主性就不能太強,至少現(xiàn)在還不行。ChatGPT 能言善辯,會寫詩,還可以替你寫挖苦別人的郵件,但有時,它也會說出一些非常不得體甚至是冒犯他人的話。
顯然,神奇的能力與風險并存。OpenAI 確實在盡力調(diào)整 ChatGPT 的功能。比如,讓人類訓練人工智能,給它的對話技巧提供反饋等。不僅如此,ChatGPT 同樣包含一些提前寫好的回答和插科打諢。但即使如此,要想預判 ChatGPT 在每個情景中可能會說什么,依然是不太現(xiàn)實的。這讓 ChatGPT 在許多實際應用中都存在不確定性,還可能造成很多倫理問題。
正如 ChatGPT 在開頭所說,我們確實已經(jīng)在人工智能領(lǐng)域取得了長足的進步,這些技術(shù)突破也極有可能意味著“語言模型潛能無限:它正給人類與機器的互動模式帶來革命性改變”。但在攜手共進的道路上,人類和技術(shù)仍應繼續(xù)保持溝通。
作者介紹
凱特?達林(Kate Darling) 是美國麻省理工學院媒體實驗室的研究員,主要研究機器倫理、人與機器人的互動,為未來的法律、政策制定提供參考。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。