IT之家 12 月 30 日消息,Meta 首席科學家、圖靈獎得主楊立昆(IT之家注:Yann LeCun,法國人)在 29 日的“Into the Impossible”播客節(jié)目中談到了自己對通用人工智能的看法。
他表示,目前 AI 的負面影響被過度放大,其能力目前仍非常有限?!霸谧顦酚^的情況下,AGI 的實現(xiàn)至少尚需 5-6 年?!碑斍吧鐣?AI 普遍擔憂,甚至不乏一些關于 AI“可能導致的末日”有關觀點,楊立昆認為其忽視了 AI 的實際發(fā)展狀況和潛在的積極影響。
他表示,目前 AI 在理解和操作物理世界方面的能力仍非常有限,因為其主要通過文本數(shù)據(jù)進行訓練,缺乏對物理世界直觀理解的能力,無法像人類或動物去與環(huán)境自然互動?!捌┤?,一個 10 歲的孩子或者一只貓都能通過‘直觀物理(intuitive physics)’來理解如何與物理世界互動,像是規(guī)劃跳躍軌跡或理解物體的運動。而目前的 AI 系統(tǒng),尚不具備這些能力?!?/p>
目前業(yè)界對人工智能乃至 AGI 的看法已是眾說紛紜,部分觀點如下:
微軟 AI CEO 穆斯塔法?蘇萊曼:當前的硬件無法實現(xiàn) AGI,在未來兩到五代硬件中實現(xiàn)是可能的,但我不認為兩年內成功的概率很高。根據(jù)硬件開發(fā)周期,目前每代硬件需要 18 到 24 個月,所以五代可能意味著十年。當前業(yè)界對 AGI 的關注有些偏離實際:“與其沉迷于奇點或超級智能,我更專注于開發(fā)對人類有實際幫助的 AI 系統(tǒng)。這些 AI 應該為用戶服務,成為其團隊的一員,而非追求遙不可及的理論目標。”
OpenAI CEO 阿爾特曼:到 2025 年,我們可能會首次見到具備“通用人工智能”(AGI)能力的系統(tǒng)。這類系統(tǒng)可以像人類一樣完成復雜任務,甚至能運用多種工具來解決問題。“或許在 2025 年,我們會看到一些 AGI 系統(tǒng),人們會驚嘆:‘哇!真是超乎我的想象。’”
2024 諾貝爾物理學獎獲得者、“AI 教父”辛頓:“多年來,我越來越認為 AI 是一種超越人類的高級智能。正因如此,我們需要認真思考一個問題:如果 AI 擁有超越人類的智慧,甚至有能力控制我們,這對人類社會意味著什么。這并非科幻小說,而是切實的風險?!彼驹碌自?BBC 的一檔節(jié)目中表示,AI 在未來三十年內導致人類滅亡的概率有 10% 到 20%,并警告該技術的變化速度“比預期快得多”。
廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。