我們剛分享過(guò)北大肖睿團(tuán)隊(duì)的兩份 DeepSeek “內(nèi)部秘籍”,除了 DeepSeek 的使用技巧,還對(duì)整個(gè) AIGC 領(lǐng)域進(jìn)行了簡(jiǎn)單的介紹。
這不,清華的也拿出了他們的《AIGC 發(fā)展研究報(bào)告 3.0》,家友們正好可以借此機(jī)會(huì)對(duì) AIGC 領(lǐng)域有一個(gè)全新的認(rèn)識(shí)。
此外,北大這邊也拿出了一篇比較硬核的《DeepSeek-R1 及類強(qiáng)推理模型開發(fā)解讀》,讓我們看看 DeepSeek 真正的領(lǐng)先之處。
對(duì)了,這次給大家分享的 PDF 下載,是原汁原味的原版哦,網(wǎng)上有太多賣課者魔改的內(nèi)置其廣告版本。
一、AI 自動(dòng)化的五個(gè)階段
這份《AIGC 發(fā)展研究報(bào)告 3.0》解讀時(shí)間截至 2024 年 12 月,內(nèi)容聚焦于 DeepSeek “以外的世界”。
至于近期的 DeepSeek-R1 及 Grok3 等最新進(jìn)展,則要等一下他們 4.0 版本的報(bào)告了。
和自動(dòng)駕駛類似,AI 自動(dòng)化的道路上也有著 L1 到 L5 的說(shuō)法,AI 將逐漸從單一領(lǐng)域的簡(jiǎn)單任務(wù)執(zhí)行,發(fā)展為完全的自動(dòng)化。
OpenAI 創(chuàng)始人奧爾特曼對(duì)于 AGI 通用人工智能五個(gè)階段的說(shuō)法,基本也是類似的道理。
2022 年 ChatGPT 的出現(xiàn),正是 AI 大模型由“特種模型”走向“通用基座”的重要節(jié)點(diǎn)。
而 OpenAI o1、DeepSeek R1、QwQ-Max 等 CoT 思維鏈模型,正好也說(shuō)明 AI 正從“模仿者”走向“慢思考者”。
現(xiàn)在的 AI 大模型,正在由上面所提的 L3 向 L4 領(lǐng)域演進(jìn),它們已經(jīng)向我們展現(xiàn)了在某些任務(wù)上的高效與自主性,但仍然無(wú)法達(dá)到完全的通用智能和獨(dú)立學(xué)習(xí)的水平。
二、AI 創(chuàng)造力的躍遷
創(chuàng)造力躍遷在 AI 時(shí)代體現(xiàn)為從“零知識(shí)啟動(dòng)”到“高知識(shí)生產(chǎn)”,再到“新知識(shí)創(chuàng)造”,最終到“元知識(shí)形成”的完整過(guò)程。
在文字、音樂(lè)、圖像甚至視頻創(chuàng)作的領(lǐng)域,我們都已經(jīng)能看到 AI 的創(chuàng)造力。
以文字創(chuàng)作為例,使用合適的提示詞來(lái)引導(dǎo) AI 大模型,便能得到不錯(cuò)的結(jié)果。
繪畫的本質(zhì)便是將藝術(shù)家腦中的構(gòu)思投射至現(xiàn)實(shí)世界。
AI 正好使得未經(jīng)過(guò)專業(yè)訓(xùn)練的我們,也能通過(guò)繪畫來(lái)表達(dá)自己心中的想法。
三、席卷全行業(yè)的效率革命
隨著 AI 的發(fā)展,人機(jī)協(xié)同融合創(chuàng)作將逐漸主導(dǎo)未來(lái)。
目前,在諸多領(lǐng)域,AI 大模型已經(jīng)在展示出他們?cè)?strong>效率上的提升潛力。
比如傳統(tǒng)的制衣流程中,AI 可以在前期的靈感構(gòu)思、調(diào)研企劃及設(shè)計(jì)繪圖環(huán)節(jié)節(jié)約大量的時(shí)間。
在醫(yī)療領(lǐng)域,一些專有的大模型也已經(jīng)可以實(shí)現(xiàn)數(shù)據(jù)自動(dòng)分析、臨床知識(shí)點(diǎn)查詢、病例分析及多模態(tài)影像數(shù)據(jù)的解析。
在教育領(lǐng)域,AI 更是在不同學(xué)科的各個(gè)領(lǐng)域,都有廣泛的施展空間。
這份文檔中還給出了 AIGC 在音樂(lè)創(chuàng)作、視頻制作、工業(yè)設(shè)計(jì)、代碼開發(fā)等多種領(lǐng)域的應(yīng)用及潛力,等待家友們?nèi)グl(fā)現(xiàn)。
四、DeepSeek R1 開發(fā)解讀
來(lái)自北大的這份新寶典,則向我們展示了 DeepSeek-R1 這類強(qiáng)推理模型的開發(fā)解讀。
我們便可以了解到,為什么 AI 業(yè)內(nèi)都盛贊 DeepSeek 所帶來(lái)的方法創(chuàng)新,也能搞明白為什么官方會(huì)提供 DeepSeek-R1 和 DeepSeek R1 Zero 兩個(gè)版本的模型。
DeepSeek-R1 Zero 完全放棄了 SFT 監(jiān)督微調(diào),純靠 RL 強(qiáng)化學(xué)習(xí)的方法進(jìn)行訓(xùn)練。
跳過(guò)了 SFT 的階段采用純強(qiáng)化學(xué)習(xí)的方法,也就讓大模型擺脫了對(duì)于大規(guī)模人工標(biāo)注數(shù)據(jù)的依賴,訓(xùn)練成本大大降低。
想要對(duì) DeepSeek-R1、強(qiáng)化學(xué)習(xí)、蒸餾等概念有進(jìn)一步了解,但是又覺得自己啃論文太困難的家友,就可以來(lái)看一下這篇較為硬核的解讀。
IT之家微信公眾號(hào)回復(fù):AI
即可獲取清華大學(xué) + 北京大學(xué)原版秘籍,點(diǎn)此 或掃描 / 長(zhǎng)按下方二維碼皆可進(jìn)入公眾號(hào),關(guān)注后發(fā)消息即可。
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。