設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

相比人工智能導(dǎo)致人類滅亡,專家稱更擔(dān)心虛假信息和操縱用戶

2023/6/4 10:04:02 來源:網(wǎng)易科技 作者:辰辰 責(zé)編:遠(yuǎn)洋

6 月 4 日消息,隨著人工智能技術(shù)的快速發(fā)展和普及,很多行內(nèi)人士擔(dān)心不加限制的人工智能可能會(huì)導(dǎo)致人類滅亡。但專家們表示,人工智能帶來的最大負(fù)面影響不太可能是科幻電影中的核戰(zhàn)場(chǎng)面,反而更有可能是虛假信息、操縱用戶等造成的社會(huì)環(huán)境不斷惡化。

圖源 Pexels

以下是翻譯內(nèi)容:

近幾個(gè)月來,業(yè)內(nèi)愈發(fā)擔(dān)心人工智能。就在本周,300 多名行業(yè)領(lǐng)袖發(fā)表了一封聯(lián)名公開信,警告人工智能可能導(dǎo)致人類滅絕,對(duì)待人工智能應(yīng)該像“疫情和核戰(zhàn)”那樣加以嚴(yán)肅對(duì)待。

像“人工智能末日”這種術(shù)語總會(huì)讓人聯(lián)想到科幻電影中機(jī)器人統(tǒng)治世界的畫面,但實(shí)際上任由發(fā)展的人工智能會(huì)帶來哪些后果?專家們說,現(xiàn)實(shí)可能不像電影情節(jié)那樣跌宕起伏,不會(huì)是人工智能啟動(dòng)核彈,而是社會(huì)基礎(chǔ)環(huán)境逐漸惡化。

加州大學(xué)伯克利分校人工智能安全計(jì)劃主任杰西卡?紐曼(Jessica Newman)說:“我不認(rèn)為人們?cè)摀?dān)心人工智能會(huì)變壞,或者人工智能會(huì)有某種惡意欲望。”“危險(xiǎn)來自一些更簡(jiǎn)單的東西,那就是人們可能會(huì)給人工智能編程,讓它做有害的事情,或者我們最終會(huì)把天生不準(zhǔn)確的人工智能系統(tǒng)整合到越來越多的社會(huì)領(lǐng)域,從而造成傷害。”

這并不是說我們不應(yīng)該擔(dān)心人工智能。即便末日?qǐng)鼍安惶赡馨l(fā)生,強(qiáng)大的人工智能也有能力用錯(cuò)誤信息問題不斷加劇、操縱人類用戶以及給勞動(dòng)力市場(chǎng)帶來巨大變化等形式破壞社會(huì)穩(wěn)定。

雖然人工智能技術(shù)已經(jīng)存在了幾十年時(shí)間,但像 ChatGPT 這種語言學(xué)習(xí)模型的普及加劇了人們長(zhǎng)期以來的擔(dān)憂。紐曼說,與此同時(shí),科技公司爭(zhēng)先恐后將人工智能應(yīng)用到他們的產(chǎn)品中,相互開展激烈競(jìng)爭(zhēng),帶來了一堆麻煩事。

她說:“我非常擔(dān)心我們眼下走的道路?!薄皩?duì)于整個(gè)人工智能領(lǐng)域來說,我們正處于一個(gè)特別危險(xiǎn)的時(shí)期,因?yàn)檫@些系統(tǒng)雖然看起來很特別,但仍然非常不準(zhǔn)確,并且存在固有漏洞?!?/p>

接受采訪的專家們表示,他們最擔(dān)心的有不少方面。

錯(cuò)誤和虛假信息

許多領(lǐng)域早已經(jīng)啟動(dòng)了所謂的人工智能變革。機(jī)器學(xué)習(xí)技術(shù)支撐著社交媒體新聞推送算法,長(zhǎng)期以來,人們一直指責(zé)這種技術(shù)加劇了固有偏見和錯(cuò)誤信息等問題。

專家們警告說,隨著人工智能模型的發(fā)展,這些尚未解決的問題只會(huì)進(jìn)一步加劇。最糟糕的情況可能影響到人們理解事實(shí)真相和有效信息,從而導(dǎo)致更多基于謊言的事件發(fā)生。專家們表示,錯(cuò)誤和虛假信息的增加可能引發(fā)進(jìn)一步的社會(huì)動(dòng)蕩。

“可以說,社交媒體的崩潰是我們第一次遇到真正愚蠢的人工智能。因?yàn)橥扑]系統(tǒng)實(shí)際上只是簡(jiǎn)單的機(jī)器學(xué)習(xí)模型,”數(shù)據(jù)科學(xué)平臺(tái) Anaconda 首席執(zhí)行官兼聯(lián)合創(chuàng)始人 Peter Wang 說?!拔覀冋娴膹氐资×??!?/p>

Peter Wang 補(bǔ)充說,這些錯(cuò)誤可能導(dǎo)致系統(tǒng)陷入永無止境的惡性循環(huán),因?yàn)檎Z言學(xué)習(xí)模型也是在錯(cuò)誤信息的基礎(chǔ)上進(jìn)行訓(xùn)練,為未來模型創(chuàng)造的又是有缺陷的數(shù)據(jù)集。這可能會(huì)導(dǎo)致“模型自相殘殺”效應(yīng),未來模型會(huì)因?yàn)檫^去模型的輸出放大偏差,并永遠(yuǎn)受到影響。

專家們稱,不準(zhǔn)確的錯(cuò)誤信息和容易誤導(dǎo)人們的虛假信息都被人工智能放大了。像 ChatGPT 這種大語言模型很容易出現(xiàn)所謂的“幻覺”現(xiàn)象,反復(fù)捏造杜撰虛假信息。新聞行業(yè)監(jiān)督機(jī)構(gòu) NewsGuard 的一項(xiàng)研究發(fā)現(xiàn),幾十個(gè)完全由人工智能撰寫材料的在線“新聞”網(wǎng)站中有許多內(nèi)容都存在不準(zhǔn)確之處。

NewsGuard 聯(lián)合首席執(zhí)行官戈登?克羅維茨 (Gordon Crovitz) 和史蒂文?布里爾 (Steven Brill) 表示,這種系統(tǒng)可能會(huì)被壞人利用,故意大規(guī)模傳播錯(cuò)誤信息。

克羅維茨說:“一些惡意的行為者可以制造虛假陳述,然后利用這個(gè)系統(tǒng)的倍增效應(yīng)來大規(guī)模傳播虛假信息?!薄坝腥苏f人工智能的危險(xiǎn)被夸大了,但在新聞信息領(lǐng)域,它正在產(chǎn)生驚人影響?!?/p>

全球非營(yíng)利性機(jī)構(gòu) Partnership on AI 的麗貝卡?芬利 (Rebecca Finlay) 表示:“就更大規(guī)模的潛在危害而言,錯(cuò)誤信息是人工智能最有可能對(duì)個(gè)人造成傷害的方面、風(fēng)險(xiǎn)也最高?!薄皢栴}是我們?nèi)绾蝿?chuàng)造一個(gè)生態(tài)系統(tǒng),讓我們能夠理解什么是真實(shí)的?”“我們又該如何驗(yàn)證我們?cè)诰W(wǎng)上看到的東西?”

惡意操縱用戶

雖然大多數(shù)專家都表示,錯(cuò)誤信息是最直接和最普遍的擔(dān)憂,但關(guān)于這項(xiàng)技術(shù)可能會(huì)在多大程度上對(duì)用戶的思想或行為產(chǎn)生負(fù)面影響,還存在不少爭(zhēng)議。

事實(shí)上,這些擔(dān)憂已經(jīng)帶來了不少悲劇。據(jù)報(bào)道,比利時(shí)一名男子在得到聊天機(jī)器人的鼓動(dòng)后自殺身亡。還有聊天機(jī)器人告訴用戶和他的伴侶分手,或者讓有飲食失調(diào)問題的用戶減肥。

紐曼說,從設(shè)計(jì)上講,因?yàn)榱奶鞕C(jī)器人是以對(duì)話的形式與用戶交流,可能會(huì)產(chǎn)生更多的信任感。

“大語言模型特別有能力說服或操縱人們?cè)跐撘颇懈淖兯麄兊男拍罨蛐袨?,”她說?!肮陋?dú)和心理健康已經(jīng)是全世界的大問題,我們需要觀察聊天機(jī)器人會(huì)對(duì)世界產(chǎn)生何種認(rèn)知影響?!?/p>

因此,專家們更擔(dān)心的不是人工智能聊天機(jī)器人會(huì)獲得感知能力并超越人類用戶,而是它們背后的大語言模型可能會(huì)操縱人們給自己造成原本沒有的傷害。紐曼說,那些以廣告盈利模式運(yùn)作的語言模型尤為如此,它們?cè)噲D操縱用戶行為,從而盡可能長(zhǎng)時(shí)間地使用平臺(tái)。

紐曼表示:“在很多情況下,給用戶造成傷害也不是因?yàn)樗麄兿胍@樣做,而是系統(tǒng)未能遵循安全協(xié)議造成的后果?!?/p>

紐曼補(bǔ)充說,聊天機(jī)器人的類人特性使用戶特別容易受到操縱。

她說:“如果你和一個(gè)使用第一人稱代詞的東西交談,談?wù)撍约旱母惺芎退幥榫?,即使明知道它不是真?shí)的,仍然更有可能引發(fā)一種它像人類的反應(yīng),讓人們更容易想要相信它?!薄罢Z言模型讓人們?cè)敢庑湃嗡?,把它?dāng)成朋友,而不是工具?!?/p>

勞動(dòng)力問題

長(zhǎng)期存在的另一個(gè)擔(dān)憂是,數(shù)字自動(dòng)化將取代大量人類工作。一些研究得出結(jié)論,到 2025 年,人工智能將在全球范圍內(nèi)取代 8500 萬個(gè)工作崗位,未來將取代超過 3 億個(gè)工作崗位。

受人工智能影響的行業(yè)以及崗位非常多,有編劇也有數(shù)據(jù)科學(xué)家?,F(xiàn)如今,人工智能可以像真正的律師那樣通過律師考試,還能比真正的醫(yī)生更好回答健康方面的問題。

專家們發(fā)出警告,人工智能的崛起可能會(huì)導(dǎo)致出現(xiàn)大規(guī)模失業(yè),從而造成社會(huì)不穩(wěn)定。

Peter Wang 警告說,大規(guī)模裁員在不久將來就會(huì)發(fā)生,“許多工作崗位都面臨風(fēng)險(xiǎn)”,而且?guī)缀鯖]有任何計(jì)劃應(yīng)對(duì)后果。

他說:“在美國(guó),沒有關(guān)于人們失業(yè)時(shí)如何生存的框架?!薄斑@將導(dǎo)致很多混亂和動(dòng)蕩。對(duì)我來說,這是由此產(chǎn)生的最具體、最現(xiàn)實(shí)的意外后果?!?/p>

未來怎么辦

盡管人們?cè)絹碓綋?dān)心科技行業(yè)和社交媒體帶來的負(fù)面影響,但在美國(guó),監(jiān)管科技行業(yè)和社交媒體平臺(tái)的措施卻很少。專家們擔(dān)心人工智能也是如此。

Peter Wang 說:“我們?cè)S多人擔(dān)心人工智能發(fā)展的原因之一是,在過去的 40 年時(shí)間里,作為一個(gè)社會(huì),美國(guó)基本上放棄了對(duì)科技的監(jiān)管。”

盡管如此,近幾個(gè)月來美國(guó)國(guó)會(huì)已經(jīng)有了一番積極動(dòng)作,舉行聽證會(huì),讓 OpenAI 首席執(zhí)行官薩姆?奧爾特曼 (Sam Altman) 就應(yīng)該實(shí)施的監(jiān)管措施作證。芬利表示,她對(duì)這些舉措感到“鼓舞”,但在制定人工智能技術(shù)規(guī)范以及如何發(fā)布方面,還需要做更多工作。

她說:“很難預(yù)測(cè)立法和監(jiān)管部門的反應(yīng)能力?!薄拔覀冃枰獙?duì)這種水平的技術(shù)進(jìn)行嚴(yán)格審查?!?/p>

盡管人工智能的危害是行業(yè)內(nèi)大多數(shù)人最關(guān)心的問題,但并非所有專家都是“末日論者”。許多人也對(duì)這項(xiàng)技術(shù)的潛在應(yīng)用感到興奮。

Peter Wang 說:“實(shí)際上,我認(rèn)為新一代人工智能技術(shù)真的可以為人類釋放出巨大的潛力,讓人類社會(huì)以更大規(guī)模繁榮起來,要超出過去 100 年甚至 200 年的水平。”“實(shí)際上,我對(duì)它的積極影響非常非常樂觀?!?/p>

廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:人工智能AI

軟媒旗下網(wǎng)站: IT之家 最會(huì)買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會(huì)買 要知