設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

李飛飛吳恩達等 2024 年 AI 十大預(yù)測!GPU 短缺,AI 智能體一年內(nèi)大爆發(fā)

新智元 2023/12/20 15:07:20 責(zé)編:遠洋

  新智元報道  

編輯:潤 alan

【新智元導(dǎo)讀】2023 這個大模型爆發(fā)的元年即將過去,展望未來,比爾蓋茨,李飛飛,吳恩達等人對 2024 年人工智能的發(fā)展作出了自己的預(yù)測。

2023,可以說是人工智能的春天。

在過去的一年里,ChatGPT 成為家喻戶曉的名字,

這一年中,AI 和 AI 公司的各種變革,讓我們震驚,也成為我們茶余飯后的瓜果。

這一年中,生成式 AI 取得了重大進展,使得人工智能初創(chuàng)公司吸引了大量資金。

人工智能領(lǐng)域的大佬們開始討論 AGI 的可能性,政策制定者開始認真對待人工智能監(jiān)管。

但在人工智能和科技行業(yè)們的領(lǐng)袖眼中,AI 浪潮可能才剛剛起步。之后的每一年,可能都是浪潮最洶涌澎湃的一年。

比爾蓋茨,李飛飛,吳恩達等人,都在最近對未來 AI 的發(fā)展趨勢談了自己的看法。

他們都不約而同地談到了期待更大的多模態(tài)模型、更令人興奮的新功能,以及圍繞我們?nèi)绾问褂煤捅O(jiān)管這項技術(shù)的更多對話。

比爾蓋茨:2 個預(yù)測,1 個經(jīng)驗,6 個問題

比爾蓋茨在自己的官方博客上發(fā)表了一篇萬字長文,將他眼里的 2023 年描繪成了一個新時代的全新開端。

文章地址:https://www.gatesnotes.com/ The-Year-Ahead-2024?WT.mc_id=20231218210000_TYA-2024_MED-ST_&WT.tsrc=MEDST#ALChapter2

這篇博客依然還是從他在蓋茨基金會的工作為切入,談到了世界范圍內(nèi)已經(jīng)出現(xiàn)或者將會出現(xiàn)哪些影響深遠的變化。

針對 AI 技術(shù)的發(fā)展,他說:

如果我必須做出預(yù)測,那在像美國這樣的高收入國家,我猜我們距離普通大眾廣泛地使用人工智能還有 18 到 24 個月的時間。

在非洲國家,我預(yù)計在三年左右的時間里會看到類似的使用水平。這其中仍然存在差距,但它比我們在其他創(chuàng)新中看到的滯后時間要短得多。

比爾蓋茨認為,AI 作為目前地球范圍內(nèi)影響最深遠地創(chuàng)新技術(shù),將會在 3 年內(nèi)徹底席卷全球。

蓋茨在博文中表示,2023 年是他第一次在工作中出于「嚴肅的原因」使用人工智能。

與前幾年相比,世界對 AI 能夠自己完成哪些工作以及「充當(dāng)哪些工作的輔助工具」有了更好的認識。

但對于大部分人來說,要讓 AI 在工作場景中充分發(fā)揮作用還有一定距離。

基于他自己獲得的數(shù)據(jù)和觀察體驗,他表示行業(yè)應(yīng)該吸取的一個最重要的教訓(xùn)是:產(chǎn)品必須適合使用它的人。

他舉了一個簡單的例子,巴基斯坦人通?;ハ喟l(fā)送語音留言,而不是發(fā)送短信或電子郵件。因此,創(chuàng)建一個依賴語音命令而不是輸入長查詢的應(yīng)用程序是有意義的。

從他本人最關(guān)心的角度,蓋茨提出了 5 個問題,希望工智能可以在相關(guān)領(lǐng)域發(fā)揮巨大作用:

-人工智能可以對抗抗生素耐藥性嗎?

-人工智能能否為每個學(xué)生創(chuàng)造出個性化的導(dǎo)師?

-人工智能可以幫助治療高危妊娠嗎?

-人工智能可以幫助人們評估感染艾滋病毒的風(fēng)險嗎?

-人工智能能否讓每個醫(yī)務(wù)工作者更輕松地獲取醫(yī)療信息?

如果我們現(xiàn)在做出明智的投資,人工智能可以讓世界變得更加公平。它可以減少甚至消除富裕世界獲得創(chuàng)新與貧窮世界獲得創(chuàng)新之間的滯后時間。

吳恩達:LLM 可以理解世界,不會監(jiān)管 AI 不如不管

吳恩達最近在接受金融時報采訪時表示,人工智能末日論非?;闹?,AI 監(jiān)管將會阻礙 AI 技術(shù)本身的發(fā)展。

在他看來,目前人工智能的相關(guān)監(jiān)管措施對防止某些問題產(chǎn)生幾乎沒有任何效果。這樣無效的監(jiān)管除了會阻礙技術(shù)的進步,不會有任何正面的受益。

所以在他看來,與其做低質(zhì)量的監(jiān)管,不如不要監(jiān)管。

他舉了最近美國政府讓大科技公司自我承諾對 AI 生成內(nèi)容自行添加「水印」,來應(yīng)對虛假信息等問題為例。

在他看來,自從白宮自愿承諾以來,一些公司反而不再對文本內(nèi)容加水印。因此,他認為自愿承諾方法作為一種監(jiān)管方法是失敗的。

而另一方面,如果監(jiān)管機構(gòu)將這種無效的監(jiān)管移植到諸如「監(jiān)管開源 AI」等問題上,很有可能會完全扼殺開源的發(fā)展并且造成大型科技公司的壟斷。

那如果 AI 獲得的監(jiān)管水平是目前的樣子,那確實沒有監(jiān)管的意義。

吳恩達重申,實際上,他希望政府能夠親自動手并制定良好的監(jiān)管規(guī)定,而不是現(xiàn)在看到的糟糕的監(jiān)管提案。所以他并不主張放手不管。但在糟糕的監(jiān)管和沒有監(jiān)管之間,他寧愿沒有監(jiān)管。

吳恩達還在訪談中談到,現(xiàn)在 LLM 已經(jīng)具備了世界模型的雛形。

「我所看到的科學(xué)證據(jù)來看,人工智能模型確實可以構(gòu)建世界模型。因此,如果人工智能有一個世界模型,那么我傾向于相信它確實理解世界。但這是我自己對理解一詞含義的理解。

如果你有一個世界模型,那么你就會了解世界如何運作,并可以預(yù)測它在不同場景下如何演變。有科學(xué)證據(jù)表明,LLM 在接受大量數(shù)據(jù)訓(xùn)練后,確實可以建立一個世界模型。」

李飛飛攜手斯坦福 HAI 發(fā)布七大預(yù)測

知識工作者的挑戰(zhàn)

斯坦福數(shù)字經(jīng)濟實驗室主任 Erik Brynjolfsson 等人預(yù)計,人工智能公司將能夠提供真正影響生產(chǎn)力的產(chǎn)品。

而知識工作者將受到前所未有的影響,比如創(chuàng)意工作者、律師、金融學(xué)教授的工作將發(fā)生很大變化。

在過去的 30 年中,這些人基本沒有受到計算機革命的影響。

我們應(yīng)該接受人工智能帶來的改變,讓我們的工作變得更好,讓我們能做以前做不到的新事情。

虛假信息擴散

斯坦福大學(xué)工程學(xué)院教授 James Landay 等人認為,我們將看到新的大型多模態(tài)模型,特別是在視頻生成方面。

所以我們還必須對嚴重的深度偽造更加警惕,

作為消費者需要意識到這一點,作為民眾也需要意識到這一點。

我們將看到 OpenAI 等公司和更多的初創(chuàng)公司,發(fā)布下一個更大的模型。

我們?nèi)匀粫吹胶芏嚓P(guān)于「這是 AGI 嗎?什么是 AGI?」的討論,—— 但我們不必擔(dān)心人工智能會接管世界,這都是炒作。

我們真正應(yīng)該擔(dān)心的是現(xiàn)在正在發(fā)生的危害 —— 虛假信息和深度偽造。

GPU 短缺

斯坦福大學(xué)教授 Russ Altman 等人對于全球性的 GPU 短缺表示擔(dān)心。

大公司們都在嘗試將 AI 功能引入內(nèi)部,而英偉達等 GPU 制造商已經(jīng)滿負荷運轉(zhuǎn)。

GPU,或者說 AI 的算力,代表了新的時代的競爭力,對于公司甚至是國家來說都是如此。

對于 GPU 的爭奪也會給創(chuàng)新者帶來巨大的壓力,他們需要提出更便宜、更易于制造和使用的硬件解決方案。

斯坦福大學(xué)和許多其他科研機構(gòu),都在研究當(dāng)前 GPU 的低功耗替代方案。

想要達到大規(guī)模商用,這項工作還有很長的路要走,但為了實現(xiàn)人工智能技術(shù)的民主化,我們必須繼續(xù)前進。

更有用的代理

斯坦福大學(xué)杰出教育研究員 Peter Norvig 認為,未來的一年代理(Agent)將會興起,AI 將能夠連接到其他服務(wù),并解決實際的問題。

2023 年是能夠與 AI 聊天的一年,人們與 AI 的關(guān)系只是通過輸入和輸出來進行的互動。

而到了 2024 年,我們將看到代理為人類完成工作的能力,—— 進行預(yù)訂、計劃旅行等等。

此外,我們將朝著多媒體邁進。

到目前為止,人們已經(jīng)非常關(guān)注語言模型,然后是圖像模型。之后,我們也將有足夠的處理能力來發(fā)展視頻模型,—— 這將非常有趣。

我們現(xiàn)在正在訓(xùn)練的東西都是非常有目的性的,—— 人們在頁面和段落中寫下自己認為有趣和重要的事情;人們利用相機記錄某些正在發(fā)生的事。

但是對于視頻來說,有些攝像機可以 24 小時運行,它們捕捉發(fā)生的事情,沒有任何過濾,沒有任何目的性的篩選。

—— 人工智能模型以前沒有這種數(shù)據(jù),這將使模型對一切有更好的理解。

對監(jiān)管的希望

斯坦福大學(xué) HAI 聯(lián)合主任李飛飛表示,2024 年,人工智能政策將值得關(guān)注。

我們的政策應(yīng)該保障學(xué)生和研究人員能夠獲得 AI 資源、數(shù)據(jù)和工具,以此來提供更多人工智能開發(fā)的機會。

另外,我們需要安全、可靠和可信賴地開發(fā)和使用人工智能,

所以,政策除了要致力于培養(yǎng)充滿活力的人工智能生態(tài)系統(tǒng),還應(yīng)致力于利用和管理人工智能技術(shù)。

我們需要相關(guān)的立法和行政命令,相關(guān)的公共部門也應(yīng)該獲得更多投資。

提出問題,給出對策

斯坦福大學(xué) HAI 高級研究員 Ge Wang 希望,我們將有足夠的資金來研究,生活、社區(qū)、教育和社會能夠從人工智能中得到什么。

越來越多的這種生成式人工智能技術(shù)將嵌入到我們的工作、娛樂和交流中。

我們需要給自己留出時間和空間,來思考什么是允許的,以及我們應(yīng)該在哪些方面做出限制。

早在今年 2 月,學(xué)術(shù)期刊出版商 Springer Publishing 就發(fā)表了一份聲明,表示可以在起草文章時使用大型語言模型,但不允許在任何出版物上作為合著者。他們引用的理由是問責(zé)制,這一點非常重要。

—— 認真地把一些東西擺在那里,闡述理由是什么,并表示這就是現(xiàn)在的理解方式,將來可能會在政策中加入更多改進。

機構(gòu)和組織必須有這樣的視角,并努力在 2024 年落實在紙上。

公司將面臨復(fù)雜的法規(guī)

斯坦福大學(xué) HAI 隱私和數(shù)據(jù)政策研究員 Jennifer King 表示,除了今年歐盟的《人工智能法案》,到 2024 年年中,加利福尼亞州和科羅拉多州將通過法規(guī),解決消費者隱私背景下的自動決策問題。

雖然這些法規(guī)僅限于,對個人信息進行訓(xùn)練或收集的人工智能系統(tǒng),但兩者都為消費者提供了選擇,即是否允許某些系統(tǒng)使用 AI 以及個人信息。

公司將不得不開始思考,當(dāng)客戶行使他們的權(quán)利時(特別是集體行使權(quán)利時),將意味著什么。

比如一家使用人工智能來協(xié)助招聘流程的大公司,如果數(shù)百名應(yīng)聘者都拒絕使用 AI,那要怎么辦?必須人工審查這些簡歷嗎?這又有什么不同?人類能夠做的更好嗎?—— 我們才剛剛開始解決這些問題。

參考資料:

  • https://x.com/StanfordHAI/status/1736778609808036101?s=20

  • https://www.ft.com/content/2dc07f9e-d2a9-4d98-b746-b051f9352be3

  • https://www.businessinsider.com/bill-gates-ai-radically-transform-jobs-healthcare-education-2023-12

本文來自微信公眾號:新智元 (ID:AI_era)

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:人工智能AI

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機APP應(yīng)用 魔方 最會買 要知