設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

ChatGPT 老板警告:AI 可能滅絕人類

量子位 2023/5/31 16:20:05 責(zé)編:夢(mèng)澤
感謝IT之家網(wǎng)友 雨雪載途 的線索投遞!

圖靈獎(jiǎng)得主 Bengio 和 Hinton,同時(shí)警告 AI 可能滅絕人類!

就在昨夜,一封簽署名單多達(dá) 350 人的公開信迅速傳播開去,信中核心只有一句話:

“降低 AI 滅絕人類的風(fēng)險(xiǎn)”,應(yīng)該像流行病和核戰(zhàn)爭(zhēng)等其它社會(huì)規(guī)模的風(fēng)險(xiǎn)一樣,成為全球的優(yōu)先事項(xiàng)。

簽署這封公開信的,既包括三大 AI 巨頭的 CEO,即 ChatGPT 老板、OpenAI 的 Sam Altman,DeepMind 的 Demis Hassabis 和 Anthropic 的 Dario Amodei;

也包括不少國(guó)內(nèi)外高校的教授,除了 Yoshua Bengio 和 Geoffrey Hinton 以外,清華 AIR 院長(zhǎng)張亞勤和斯坦福教授、圖靈獎(jiǎng)得主 Martin Hellman 等人也名列其中。

這段時(shí)間來,關(guān)于 AI 風(fēng)險(xiǎn)的各種大小討論也是接連不斷,OpenAI CEO Sam Altman 前段時(shí)間還倡議稱,人們應(yīng)當(dāng)像對(duì)待核設(shè)施一樣監(jiān)管 AI。

所以,究竟是誰發(fā)起的這封公開信倡議,又是否有 AI 大牛反對(duì)這件事?

為何簽署這封信?

發(fā)布這封公開信的機(jī)構(gòu)名叫 Center for AI Safety(CAIS),是一家關(guān)于 AI 安全的非營(yíng)利組織。

在這封公開信的開頭,CAIS 反復(fù)強(qiáng)調(diào):

包括 AI 專家、記者、政策制定者和公眾在內(nèi),越來越多的人開始討論 AI 帶來的一系列重要和緊迫的風(fēng)險(xiǎn)。

即便如此,要想表達(dá)對(duì)先進(jìn) AI 的嚴(yán)重風(fēng)險(xiǎn),可能還是有一定難度。這封公開信旨在克服這一障礙,并展開對(duì)相關(guān)議題的討論,讓更多專家和公眾人物認(rèn)識(shí)到這一點(diǎn)。

事實(shí)上,已經(jīng)有不少簽署了這封信的 AI 大牛,最近發(fā)了關(guān)于 AI 風(fēng)險(xiǎn)的博客文章、或是在訪談中談到了自己的觀點(diǎn)。

例如前段時(shí)間,Yoshua Bengio 就寫了一封長(zhǎng)信,警告稱“人類大腦是生物機(jī)器,一定會(huì)有超級(jí)智能 AI 超越它”。

除此之外,包括 Stability AI 的創(chuàng)始人 Emad Mostaque、以及劍橋大學(xué)助理教授 David Krueger 等人,也都在最近的訪談中提到了關(guān)于 AI 帶來的潛在危害。

例如,Emad Mostaque 認(rèn)為,10 年后包括 Stability AI、OpenAI 和 DeepMind 在內(nèi),這些 AI 公司的規(guī)模甚至?xí)^谷歌和 Facebook。

也正是因此,AI 風(fēng)險(xiǎn)是一個(gè)必須要考慮的事情:

我們可能正處于全面變革的風(fēng)口浪尖,這些變革對(duì)于任何一家公司或是國(guó)家來說都太過龐大,以至于難以管理。

沒簽的 AI 大牛怎么說?

當(dāng)然,這波鬧得沸沸揚(yáng)揚(yáng)的“請(qǐng)求 AI 監(jiān)管”浪潮下,也有不少反對(duì)的聲音。

目前為止,包括另一位圖靈獎(jiǎng)得主 Yann LeCun、前特斯拉 AI 總監(jiān) Andrej Karpathy 還有吳恩達(dá)等 AI 大牛在內(nèi),都還沒簽署這封聯(lián)名信。

吳恩達(dá)發(fā)推回應(yīng)稱:

當(dāng)我想到大部分人類生存面臨的風(fēng)險(xiǎn)時(shí):流行病、氣候變化導(dǎo)致大規(guī)模人口減少、(撞擊地球的)小行星……

AI 將是我們尋找解決方案的關(guān)鍵部分。所以,如果你想讓人類在接下來的 1000 年里生存和繁榮,那就讓 AI 發(fā)展得更快,而不是更慢。

LeCun 轉(zhuǎn)發(fā)表示同意:

“超人級(jí)”AI 之所以不在風(fēng)險(xiǎn)列表榜首,很大程度上是因?yàn)樗€不存在。至少我們?cè)谠O(shè)計(jì)出達(dá)到狗智商(更不用說人類了)的 AI 之前,討論它的安全性還為時(shí)過早。

對(duì)此,紐約大學(xué)教授 Gary Marcus 補(bǔ)充道:

不要把框架縮小到只關(guān)注人類滅絕的風(fēng)險(xiǎn)。AI 其實(shí)還存在許多其他的嚴(yán)重風(fēng)險(xiǎn),包括可能幫助開發(fā)生物武器等。

不過,Gary Marcus 同樣沒有簽署這份 350 人公開信。

顯然包括不少 AI 大牛在內(nèi),反對(duì)者主要有兩種意見。

一種意見認(rèn)為,AI 技術(shù)確實(shí)存在風(fēng)險(xiǎn),但這封公開信涉及到的內(nèi)容太泛泛。

如果有更精確的聲明如“減輕 AI 技術(shù)的潛在風(fēng)險(xiǎn)應(yīng)該是科技行業(yè)、政府和該領(lǐng)域?qū)W術(shù)研究人員的首要任務(wù)”,那么這封信還是可以簽署的。

這封公開信中的內(nèi)容根本就是夸大其詞了,而且 AI 在氣候變化等領(lǐng)域甚至可以起到降低風(fēng)險(xiǎn)的作用。

另一類意見則認(rèn)為,這封信只不過是當(dāng)前掌握最領(lǐng)先 AI 技術(shù)的人,試圖控制 AI 接下來的走向而已。

以 OpenAI 的 CEO Sam Altman 為例:

Sam Altman 要是真的擔(dān)心,大可以現(xiàn)在直接關(guān)掉 ChatGPT 服務(wù)器。

所以,你認(rèn)為按照現(xiàn)在的進(jìn)度來看,AI 有可能滅絕人類嗎?

參考鏈接:

  • [1]https://www.safe.ai/statement-on-ai-risk

  • [2]https://www.nytimes.com/2023/05/30/technology/ai-threat-warning.html?smtyp=cur&smid=tw-nytimes

  • [3]https://twitter.com/AndrewYNg/status/1663584330751561735

  • [4]https://www.reddit.com/r/MachineLearning/comments/13vls63/n_hinton_bengio_and_other_ai_experts_sign/

本文來自微信公眾號(hào):量子位 (ID:QbitAI),作者:蕭簫

廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:ChatGPT,OpenAI

軟媒旗下網(wǎng)站: IT之家 最會(huì)買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會(huì)買 要知