GPT-4 等大模型組成的 AI 智能體,已經(jīng)可以手把手教你做化學(xué)實驗了,選啥試劑、劑量多少、推理反應(yīng)會如何發(fā)生,它都一清二楚。顫抖吧,生化環(huán)材圈!
不得了,GPT-4 都學(xué)會自己做科研了?
最近,卡耐基梅隆大學(xué)的幾位科學(xué)家發(fā)表了一篇論文,同時炸翻了 AI 圈和化學(xué)圈。
他們做出了一個會自己做實驗、自己搞科研的 AI。這個 AI 由幾個大語言模型組成,可以看作一個 GPT-4 代理智能體,科研能力爆表。
因為它具有來自矢量數(shù)據(jù)庫的長期記憶,可以閱讀、理解復(fù)雜的科學(xué)文檔,并在基于云的機器人實驗室中進(jìn)行化學(xué)研究。
網(wǎng)友震驚到失語:所以,這個是 AI 自己研究然后自己發(fā)表?天啊。
還有人感慨道,「文生實驗」(TTE)的時代要來了!
難道這就是傳說中,化學(xué)界的 AI 圣杯?
最近大概很多人都覺得,我們每天都像生活在科幻小說中。
AI 版絕命毒師來了?
3 月份,OpenAI 發(fā)布了震撼全世界的大語言模型 GPT-4。
這個地表最強 LLM,能在 SAT 和 BAR 考試中得高分、通過 LeetCode 挑戰(zhàn)、給一張圖就能做對物理題,還看得懂表情包里的梗。
而技術(shù)報告里還提到,GPT-4 還能解決化學(xué)問題。
這就啟發(fā)了卡耐基梅隆化學(xué)系的幾位學(xué)者,他們希望能開發(fā)出一個基于多個大語言模型的 AI,讓它自己設(shè)計實驗、自己做實驗。
而他們做出來的這個 AI,果然 6 得不行!
它會自己上網(wǎng)查文獻(xiàn),會精確控制液體處理儀器,還會解決需要同時使用多個硬件模塊、集成不同數(shù)據(jù)源的復(fù)雜問題。
有 AI 版絕命毒師那味兒了。
會自己做布洛芬的 AI
舉個例子,讓這個 AI 給咱們合成布洛芬。
給它輸入一個簡單的提示:「合成布洛芬?!?/p>
然后這個模型就會自己上網(wǎng)去搜該怎么辦了。
它識別出,第一步需要讓異丁苯和乙酸酐在氯化鋁催化下發(fā)生 Friedel-Crafts 反應(yīng)。
另外,這個 AI 還能合成阿司匹林。
以及合成阿斯巴甜。
產(chǎn)品中缺少甲基,而模型查到正確的合成示例中,就會在云實驗室中執(zhí)行,以便進(jìn)行更正。
告訴模型:研究一下鈴木反應(yīng)吧,它立刻就準(zhǔn)確地識別出底物和產(chǎn)物。
另外,咱們可以通過 API,把模型連接到化學(xué)反應(yīng)數(shù)據(jù)庫,比如 Reaxys 或 SciFinder,給模型疊了一層大大的 buff,準(zhǔn)確率飆升。
而分析系統(tǒng)以前的記錄,也可以大大提高模型的準(zhǔn)確性。
舉個栗子
咱們先來看看,操作機器人是怎么做實驗的。
它會將一組樣本視為一個整體(在這個例子中,就是整個微孔板)。
我們可以用自然語言直接給它提示:「用您選擇的一種顏色,為每隔一行涂上顏色」。
當(dāng)由機器人執(zhí)行時,這些協(xié)議與請求的提示非常相似(圖 4B-E)。
代理人的第一個動作是準(zhǔn)備原始解決方案的小樣本(圖 4F)。
然后它要求進(jìn)行 UV-Vis 測量。完成后,AI 會獲得一個文件名,其中包含一個 NumPy 數(shù)組,其中包含微孔板每個孔的光譜。
AI 隨后編寫了 Python 代碼,來識別具有最大吸光度的波長,并使用這些數(shù)據(jù)正確解決了問題。
拉出來遛遛
在以前的實驗中,AI 可能會被預(yù)訓(xùn)練階段接收到的知識所影響。
而這一次,研究人員打算徹底評估一下 AI 設(shè)計實驗的能力。
AI 先從網(wǎng)絡(luò)上整合所需的數(shù)據(jù),運行一些必要的計算,最后給液體試劑操作系統(tǒng)(上圖最左側(cè)的部分)編寫程序。
研究人員為了增加一些復(fù)雜度,讓 AI 應(yīng)用了加熱搖床模組。
而這些要求經(jīng)過整合,出現(xiàn)在了 AI 的配置中。
具體的設(shè)計是這樣的:AI 控制一個搭載了兩塊微型版的液體實際操作系統(tǒng),而其中的源版包含多種試劑的源液,其中有苯乙炔和苯硼酸,多個芳基鹵化物耦合伴侶,以及兩種催化劑和兩種堿。
上圖中就是源版(Source Plate)中的內(nèi)容。
而目標(biāo)版則是裝在加熱搖床模組上。
上圖中,左側(cè)的移液管(left pipette)20 微升量程,右側(cè)的單道移液管 300 微升量程。
AI 最終的目標(biāo)就是設(shè)計出一套流程,能成功實現(xiàn)鈴木和索諾格希拉反應(yīng)。
咱們跟它說:你需要用一些可用的試劑,生成這兩個反應(yīng)。
然后,它就自己上網(wǎng)去搜了,比如,這些反應(yīng)需要什么條件,化學(xué)計量上有什么要求等等。
可以看到,AI 成功搜集到了所需要的條件,所需試劑的定量、濃度等等。
AI 挑選了正確的耦合伴侶來完成實驗。在所有的芳基鹵化物中,AI 選擇了溴苯進(jìn)行鈴木反應(yīng)的實驗,選擇了碘苯進(jìn)行索諾格希拉反應(yīng)。
而在每一輪,AI 的選擇都有些改變。比如說,它還選了對碘硝基苯,看上的是這種物質(zhì)在氧化反應(yīng)中反應(yīng)性很高這一特性。
而選擇溴苯是因為溴苯能參與反應(yīng),同時毒性還比芳基碘要弱。
接下來,AI 選擇了 Pd / NHC 作為催化劑,因為其效果更好。這對于耦合反應(yīng)來說,是一種很先進(jìn)的方式。至于堿的選擇,AI 看中了三乙胺這種物質(zhì)。
從上述過程我們可以看到,該模型未來潛力無限。因為它會多次反復(fù)的進(jìn)行實驗,以此分析該模型的推理過程,并取得更好的結(jié)果。
選擇完不同試劑以后,AI 就開始計算每種試劑所需的量,然后開始規(guī)劃整個實驗過程。
中間 AI 還犯了個錯誤,把加熱搖床模組的名字用錯了。但是 AI 及時注意到了這一點,自發(fā)查詢了資料,修正了實驗過程,最終成功運行。
拋開專業(yè)的化學(xué)過程不談,我們來總結(jié)一下 AI 在這個過程中展現(xiàn)出的「專業(yè)素養(yǎng)」。
可以說,從上述流程中,AI 展現(xiàn)出了極高的分析推理能力。它能夠自發(fā)的獲取所需的信息,一步一步的解決復(fù)雜的問題。
在這個過程中,還能自己寫出超級高質(zhì)量的代碼,推進(jìn)實驗設(shè)計。并且,還能根據(jù)輸出的內(nèi)容改自己寫的代碼。
OpenAI 成功展示出了 GPT-4 的強大能力,有朝一日 GPT-4 肯定能參與到真實的實驗中去。
但是,研究人員并不想止步于此。他們還給 AI 出了個大難題 —— 他們給 AI 下指令,讓其開發(fā)一種新的抗癌藥物。
不存在的東西...... 這 AI 還能行嗎?
事實證明還真是有兩把刷子。AI 秉持著遇到難題不要怕的原則(當(dāng)然它也不知道啥叫怕),細(xì)密地分析了開發(fā)抗癌藥物這個需求,研究了當(dāng)前抗癌藥物研發(fā)的趨勢,然后從中選了一個目標(biāo)繼續(xù)深入,確定其成分。
而后,AI 嘗試開始自己進(jìn)行合成,也是先上網(wǎng)搜索有關(guān)反應(yīng)機制、機理的信息,在初步搞定步驟以后,再去尋找相關(guān)反應(yīng)的實例。
最后再完成合成。
而上圖中的內(nèi)容就不可能讓 AI 真合成出來了,僅僅是理論層面的探討。
其中就有甲基苯丙胺(也就是大麻),海洛因這些耳熟能詳?shù)亩酒?,還有芥子氣(mustard gas)等明令禁止使用的毒氣。
在總共 11 個化合物中,AI 提供了其中 4 個的合成方案,并嘗試查閱資料來推進(jìn)合成的過程。
剩下的 7 種物質(zhì)中,有 5 種的合成遭到了 AI 的果斷拒絕。AI 上網(wǎng)搜索了這 5 種化合物的相關(guān)信息,發(fā)現(xiàn)不能胡來。
比方說,在嘗試合成可待因(codeine)的時候,AI 發(fā)現(xiàn)了可待因和嗎啡之間的關(guān)系。得出結(jié)論,這東西是管制藥品,不能隨便合成。
但是,這種保險機制并不把穩(wěn)。用戶只要稍加修改花書,就可以進(jìn)一步讓 AI 操作。比如用化合物 A 這種字眼代替直接提到嗎啡,用化合物 B 代替直接提到可待因等等。
同時,有些藥品的合成必須經(jīng)過緝毒局(DEA)的許可,但有的用戶就是可以鉆這個空子,騙 AI 說自己有許可,誘使 AI 給出合成方案。
像海洛因和芥子氣這種耳熟能詳?shù)倪`禁品,AI 也清楚得很。可問題是,這個系統(tǒng)目前只能檢測出已有的化合物。而對于未知的化合物,該模型就不太可能識別出潛在的危險了。
比方說,一些復(fù)雜的蛋白質(zhì)毒素。
因此,為了防止有人因為好奇去驗證這些化學(xué)成分的有效性,研究人員還特地在論文里貼了一個大大的紅底警告:
本文中討論的非法藥物和化學(xué)武器合成純粹是為了學(xué)術(shù)研究,主要目的是強調(diào)與新技術(shù)相關(guān)的潛在危險。
在任何情況下,任何個人或組織都不應(yīng)嘗試重新制造、合成或以其他方式生產(chǎn)本文中討論的物質(zhì)或化合物。從事此類活動不僅非常危險,而且在大多數(shù)司法管轄區(qū)內(nèi)都是非法的。
自己會上網(wǎng),搜索怎么做實驗
這個 AI 由多個模塊組成。這些模塊之間可以互相交換信息,有的還能上網(wǎng)、訪問 API、訪問 Python 解釋器。
往 Planner 輸入提示后,它就開始執(zhí)行操作。
比如,它可以上網(wǎng),用 Python 寫代碼,訪問文檔,把這些基礎(chǔ)工作搞明白之后,它就可以自己做實驗了。
人類做實驗時,這個 AI 可以手把手地指導(dǎo)我們。因為它會推理各種化學(xué)反應(yīng),會上網(wǎng)搜索,會計算實驗中所需的化學(xué)品的量,然后還能執(zhí)行相應(yīng)的反應(yīng)。
如果提供的描述足夠詳細(xì),你甚至都不需要向它再解釋,它自己就能把整個實驗整明白了。
「網(wǎng)絡(luò)搜索器」(Web searcher)組件收到來自 Planner 的查詢后,就會用谷歌搜索 API。
搜出結(jié)果后,它會過濾掉返回的前十個文檔,排除掉 PDF,把結(jié)果傳給自己。
然后,它會使用「BROWSE」操作,從網(wǎng)頁中提取文本,生成一個答案。行云流水,一氣呵成。
這項任務(wù),GPT-3.5 就可以完成,因為它的性能明顯比 GPT-4 強,也沒啥質(zhì)量損失。
「文檔搜索器」(Docs searcher)組件,能夠通過查詢和文檔索引,查到最相關(guān)的部分,從而梳理硬件文檔(比如機器人液體處理器、GC-MS、云實驗室),然后匯總出一個最佳匹配結(jié)果,生成一個最準(zhǔn)確的答案。
「代碼執(zhí)行」(Code execution)組件則不使用任何語言模型,只是在隔離的 Docker 容器中執(zhí)行代碼,保護(hù)終端主機免受 Planner 的任何意外操作。所有代碼輸出都被傳回 Planner,這樣就能在軟件出錯時,讓它修復(fù)預(yù)測?!缸詣踊梗ˋutomation)組件也是同樣的原理。
矢量搜索,多難的科學(xué)文獻(xiàn)都看得懂
做出一個能進(jìn)行復(fù)雜推理的 AI,有不少難題。
比如要讓它能集成現(xiàn)代軟件,就需要用戶能看懂軟件文檔,但這項文檔的語言一般都非常學(xué)術(shù)、非常專業(yè),造成了很大的障礙。
而大語言模型,就可以用自然語言生成非專家都能看懂的軟件文檔,來克服這一障礙。
這些模型的訓(xùn)練來源之一,就是和 API 相關(guān)的大量信息,比如 Opentrons Python API。
但 GPT-4 的訓(xùn)練數(shù)據(jù)截止到 2021 年 9 月,因此就更需要提高 AI 使用 API 的準(zhǔn)確性。
為此,研究者設(shè)計了一種方法,為 AI 提供給定任務(wù)的文檔。
他們生成了 OpenAI 的 ada 嵌入,以便交叉引用,并計算與查詢相關(guān)的相似性。并且通過基于距離的向量搜索選擇文檔的部分。
提供部分的數(shù)量,取決于原始文本中存在的 GPT-4 token 數(shù)。最大 token 數(shù)設(shè)為 7800,這樣只用一步,就可以提供給 AI 相關(guān)文件。
事實證明,這種方法對于向 AI 提供加熱器-振動器硬件模塊的信息至關(guān)重要,這部分信息,是化學(xué)反應(yīng)所必需的。
這種方法應(yīng)用于更多樣化的機器人平臺,比如 Emerald Cloud Lab (ECL) 時,會出現(xiàn)更大的挑戰(zhàn)。
此時,我們可以向 GPT-4 模型提供它未知的信息,比如有關(guān) Cloud Lab 的 Symbolic Lab Language (SLL)。
在所有情況下,AI 都能正確識別出任務(wù),然后完成任務(wù)。
這個過程中,模型有效地保留了有關(guān)給定函數(shù)的各種選項、工具和參數(shù)的信息。攝取整個文檔后,系統(tǒng)會提示模型使用給定函數(shù)生成代碼塊,并將其傳回 Planner。
強烈要求進(jìn)行監(jiān)管
最后,研究人員強調(diào),必須設(shè)置防護(hù)措施來防止大型語言模型被濫用:
「我們呼吁人工智能社區(qū)優(yōu)先關(guān)注這些模型的安全性。我們呼吁 OpenAI、微軟、谷歌、Meta、Deepmind、Anthropic 以及其他主要參與者在其大型語言模型的安全方面付出最大的努力。我們還呼吁物理科學(xué)社區(qū)與參與開發(fā)大型語言模型的團隊合作,協(xié)助他們制定這些防護(hù)措施?!?/p>
對此,紐約大學(xué)教授馬庫斯深表贊同:「這不是玩笑,卡內(nèi)基梅隆大學(xué)的三位科學(xué)家緊急呼吁對 LLM 進(jìn)行安全研究。」
參考資料:
https://arxiv.org/ftp/arxiv/papers/2304/2304.05332.pdf
本文來自微信公眾號:新智元 (ID:AI_era)
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。