新智元報道
編輯:潤 alan
【新智元導(dǎo)讀】2023 這個大模型爆發(fā)的元年即將過去,展望未來,比爾蓋茨,李飛飛,吳恩達等人對 2024 年人工智能的發(fā)展作出了自己的預(yù)測。
2023,可以說是人工智能的春天。
在過去的一年里,ChatGPT 成為家喻戶曉的名字,
這一年中,AI 和 AI 公司的各種變革,讓我們震驚,也成為我們茶余飯后的瓜果。
這一年中,生成式 AI 取得了重大進展,使得人工智能初創(chuàng)公司吸引了大量資金。
人工智能領(lǐng)域的大佬們開始討論 AGI 的可能性,政策制定者開始認真對待人工智能監(jiān)管。
但在人工智能和科技行業(yè)們的領(lǐng)袖眼中,AI 浪潮可能才剛剛起步。之后的每一年,可能都是浪潮最洶涌澎湃的一年。
比爾蓋茨,李飛飛,吳恩達等人,都在最近對未來 AI 的發(fā)展趨勢談了自己的看法。
他們都不約而同地談到了期待更大的多模態(tài)模型、更令人興奮的新功能,以及圍繞我們?nèi)绾问褂煤捅O(jiān)管這項技術(shù)的更多對話。
比爾蓋茨:2 個預(yù)測,1 個經(jīng)驗,6 個問題
比爾蓋茨在自己的官方博客上發(fā)表了一篇萬字長文,將他眼里的 2023 年描繪成了一個新時代的全新開端。
這篇博客依然還是從他在蓋茨基金會的工作為切入,談到了世界范圍內(nèi)已經(jīng)出現(xiàn)或者將會出現(xiàn)哪些影響深遠的變化。
針對 AI 技術(shù)的發(fā)展,他說:
如果我必須做出預(yù)測,那在像美國這樣的高收入國家,我猜我們距離普通大眾廣泛地使用人工智能還有 18 到 24 個月的時間。
在非洲國家,我預(yù)計在三年左右的時間里會看到類似的使用水平。這其中仍然存在差距,但它比我們在其他創(chuàng)新中看到的滯后時間要短得多。
比爾蓋茨認為,AI 作為目前地球范圍內(nèi)影響最深遠地創(chuàng)新技術(shù),將會在 3 年內(nèi)徹底席卷全球。
蓋茨在博文中表示,2023 年是他第一次在工作中出于「嚴肅的原因」使用人工智能。
與前幾年相比,世界對 AI 能夠自己完成哪些工作以及「充當(dāng)哪些工作的輔助工具」有了更好的認識。
但對于大部分人來說,要讓 AI 在工作場景中充分發(fā)揮作用還有一定距離。
基于他自己獲得的數(shù)據(jù)和觀察體驗,他表示行業(yè)應(yīng)該吸取的一個最重要的教訓(xùn)是:產(chǎn)品必須適合使用它的人。
他舉了一個簡單的例子,巴基斯坦人通?;ハ喟l(fā)送語音留言,而不是發(fā)送短信或電子郵件。因此,創(chuàng)建一個依賴語音命令而不是輸入長查詢的應(yīng)用程序是有意義的。
從他本人最關(guān)心的角度,蓋茨提出了 5 個問題,希望工智能可以在相關(guān)領(lǐng)域發(fā)揮巨大作用:
-人工智能可以對抗抗生素耐藥性嗎?
-人工智能能否為每個學(xué)生創(chuàng)造出個性化的導(dǎo)師?
-人工智能可以幫助治療高危妊娠嗎?
-人工智能可以幫助人們評估感染艾滋病毒的風(fēng)險嗎?
-人工智能能否讓每個醫(yī)務(wù)工作者更輕松地獲取醫(yī)療信息?
如果我們現(xiàn)在做出明智的投資,人工智能可以讓世界變得更加公平。它可以減少甚至消除富裕世界獲得創(chuàng)新與貧窮世界獲得創(chuàng)新之間的滯后時間。
吳恩達:LLM 可以理解世界,不會監(jiān)管 AI 不如不管
吳恩達最近在接受金融時報采訪時表示,人工智能末日論非?;闹?,AI 監(jiān)管將會阻礙 AI 技術(shù)本身的發(fā)展。
在他看來,目前人工智能的相關(guān)監(jiān)管措施對防止某些問題產(chǎn)生幾乎沒有任何效果。這樣無效的監(jiān)管除了會阻礙技術(shù)的進步,不會有任何正面的受益。
所以在他看來,與其做低質(zhì)量的監(jiān)管,不如不要監(jiān)管。
他舉了最近美國政府讓大科技公司自我承諾對 AI 生成內(nèi)容自行添加「水印」,來應(yīng)對虛假信息等問題為例。
在他看來,自從白宮自愿承諾以來,一些公司反而不再對文本內(nèi)容加水印。因此,他認為自愿承諾方法作為一種監(jiān)管方法是失敗的。
而另一方面,如果監(jiān)管機構(gòu)將這種無效的監(jiān)管移植到諸如「監(jiān)管開源 AI」等問題上,很有可能會完全扼殺開源的發(fā)展并且造成大型科技公司的壟斷。
那如果 AI 獲得的監(jiān)管水平是目前的樣子,那確實沒有監(jiān)管的意義。
吳恩達重申,實際上,他希望政府能夠親自動手并制定良好的監(jiān)管規(guī)定,而不是現(xiàn)在看到的糟糕的監(jiān)管提案。所以他并不主張放手不管。但在糟糕的監(jiān)管和沒有監(jiān)管之間,他寧愿沒有監(jiān)管。
吳恩達還在訪談中談到,現(xiàn)在 LLM 已經(jīng)具備了世界模型的雛形。
「我所看到的科學(xué)證據(jù)來看,人工智能模型確實可以構(gòu)建世界模型。因此,如果人工智能有一個世界模型,那么我傾向于相信它確實理解世界。但這是我自己對理解一詞含義的理解。
如果你有一個世界模型,那么你就會了解世界如何運作,并可以預(yù)測它在不同場景下如何演變。有科學(xué)證據(jù)表明,LLM 在接受大量數(shù)據(jù)訓(xùn)練后,確實可以建立一個世界模型。」
李飛飛攜手斯坦福 HAI 發(fā)布七大預(yù)測
知識工作者的挑戰(zhàn)
斯坦福數(shù)字經(jīng)濟實驗室主任 Erik Brynjolfsson 等人預(yù)計,人工智能公司將能夠提供真正影響生產(chǎn)力的產(chǎn)品。
而知識工作者將受到前所未有的影響,比如創(chuàng)意工作者、律師、金融學(xué)教授的工作將發(fā)生很大變化。
在過去的 30 年中,這些人基本沒有受到計算機革命的影響。
我們應(yīng)該接受人工智能帶來的改變,讓我們的工作變得更好,讓我們能做以前做不到的新事情。
虛假信息擴散
斯坦福大學(xué)工程學(xué)院教授 James Landay 等人認為,我們將看到新的大型多模態(tài)模型,特別是在視頻生成方面。
所以我們還必須對嚴重的深度偽造更加警惕,
作為消費者需要意識到這一點,作為民眾也需要意識到這一點。
我們將看到 OpenAI 等公司和更多的初創(chuàng)公司,發(fā)布下一個更大的模型。
我們?nèi)匀粫吹胶芏嚓P(guān)于「這是 AGI 嗎?什么是 AGI?」的討論,—— 但我們不必擔(dān)心人工智能會接管世界,這都是炒作。
我們真正應(yīng)該擔(dān)心的是現(xiàn)在正在發(fā)生的危害 —— 虛假信息和深度偽造。
GPU 短缺
斯坦福大學(xué)教授 Russ Altman 等人對于全球性的 GPU 短缺表示擔(dān)心。
大公司們都在嘗試將 AI 功能引入內(nèi)部,而英偉達等 GPU 制造商已經(jīng)滿負荷運轉(zhuǎn)。
GPU,或者說 AI 的算力,代表了新的時代的競爭力,對于公司甚至是國家來說都是如此。
對于 GPU 的爭奪也會給創(chuàng)新者帶來巨大的壓力,他們需要提出更便宜、更易于制造和使用的硬件解決方案。
斯坦福大學(xué)和許多其他科研機構(gòu),都在研究當(dāng)前 GPU 的低功耗替代方案。
想要達到大規(guī)模商用,這項工作還有很長的路要走,但為了實現(xiàn)人工智能技術(shù)的民主化,我們必須繼續(xù)前進。
更有用的代理
斯坦福大學(xué)杰出教育研究員 Peter Norvig 認為,未來的一年代理(Agent)將會興起,AI 將能夠連接到其他服務(wù),并解決實際的問題。
2023 年是能夠與 AI 聊天的一年,人們與 AI 的關(guān)系只是通過輸入和輸出來進行的互動。
而到了 2024 年,我們將看到代理為人類完成工作的能力,—— 進行預(yù)訂、計劃旅行等等。
此外,我們將朝著多媒體邁進。
到目前為止,人們已經(jīng)非常關(guān)注語言模型,然后是圖像模型。之后,我們也將有足夠的處理能力來發(fā)展視頻模型,—— 這將非常有趣。
我們現(xiàn)在正在訓(xùn)練的東西都是非常有目的性的,—— 人們在頁面和段落中寫下自己認為有趣和重要的事情;人們利用相機記錄某些正在發(fā)生的事。
但是對于視頻來說,有些攝像機可以 24 小時運行,它們捕捉發(fā)生的事情,沒有任何過濾,沒有任何目的性的篩選。
—— 人工智能模型以前沒有這種數(shù)據(jù),這將使模型對一切有更好的理解。
對監(jiān)管的希望
斯坦福大學(xué) HAI 聯(lián)合主任李飛飛表示,2024 年,人工智能政策將值得關(guān)注。
我們的政策應(yīng)該保障學(xué)生和研究人員能夠獲得 AI 資源、數(shù)據(jù)和工具,以此來提供更多人工智能開發(fā)的機會。
另外,我們需要安全、可靠和可信賴地開發(fā)和使用人工智能,
所以,政策除了要致力于培養(yǎng)充滿活力的人工智能生態(tài)系統(tǒng),還應(yīng)致力于利用和管理人工智能技術(shù)。
我們需要相關(guān)的立法和行政命令,相關(guān)的公共部門也應(yīng)該獲得更多投資。
提出問題,給出對策
斯坦福大學(xué) HAI 高級研究員 Ge Wang 希望,我們將有足夠的資金來研究,生活、社區(qū)、教育和社會能夠從人工智能中得到什么。
越來越多的這種生成式人工智能技術(shù)將嵌入到我們的工作、娛樂和交流中。
我們需要給自己留出時間和空間,來思考什么是允許的,以及我們應(yīng)該在哪些方面做出限制。
早在今年 2 月,學(xué)術(shù)期刊出版商 Springer Publishing 就發(fā)表了一份聲明,表示可以在起草文章時使用大型語言模型,但不允許在任何出版物上作為合著者。他們引用的理由是問責(zé)制,這一點非常重要。
—— 認真地把一些東西擺在那里,闡述理由是什么,并表示這就是現(xiàn)在的理解方式,將來可能會在政策中加入更多改進。
機構(gòu)和組織必須有這樣的視角,并努力在 2024 年落實在紙上。
公司將面臨復(fù)雜的法規(guī)
斯坦福大學(xué) HAI 隱私和數(shù)據(jù)政策研究員 Jennifer King 表示,除了今年歐盟的《人工智能法案》,到 2024 年年中,加利福尼亞州和科羅拉多州將通過法規(guī),解決消費者隱私背景下的自動決策問題。
雖然這些法規(guī)僅限于,對個人信息進行訓(xùn)練或收集的人工智能系統(tǒng),但兩者都為消費者提供了選擇,即是否允許某些系統(tǒng)使用 AI 以及個人信息。
公司將不得不開始思考,當(dāng)客戶行使他們的權(quán)利時(特別是集體行使權(quán)利時),將意味著什么。
比如一家使用人工智能來協(xié)助招聘流程的大公司,如果數(shù)百名應(yīng)聘者都拒絕使用 AI,那要怎么辦?必須人工審查這些簡歷嗎?這又有什么不同?人類能夠做的更好嗎?—— 我們才剛剛開始解決這些問題。
參考資料:
https://x.com/StanfordHAI/status/1736778609808036101?s=20
https://www.ft.com/content/2dc07f9e-d2a9-4d98-b746-b051f9352be3
https://www.businessinsider.com/bill-gates-ai-radically-transform-jobs-healthcare-education-2023-12
本文來自微信公眾號:新智元 (ID:AI_era)
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。