設置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

用 ChatGPT 寫論文靠譜嗎,有學者試了一下:漏洞百出,但是個注水的「好」工具

新智元 2023/2/10 14:31:03 責編:夢澤

雖然 ChatGPT 寫的論文錯誤太多,但掠奪性期刊應該會接收。(錯誤嘗試!?。?/p>

ChatGPT 以其強大的文本創(chuàng)作能力,直接問鼎地表最強問答模型。

但強大的 AI 也會帶來一些負面影響,比如在問答社區(qū)一本正經地寫出錯誤答案,幫助學生寫論文等。

最近 arXiv 上的一篇論文引發(fā)了業(yè)界的關注,來自西班牙圣地亞哥-德孔波斯特拉大學的研究人員在文中以「人工智能在藥物發(fā)現(xiàn)中的挑戰(zhàn)、機遇和策略」,這篇論文的特別之處在于作者使用 ChatGPT 輔助論文寫作。

論文鏈接:https://arxiv.org/ abs / 2212.08104

作者團隊在摘要中的最后一段「來自人類作者的說明」(Note from human-authors)中表示,創(chuàng)建這篇論文是為了測試 ChatGPT (一個基于 GPT-3.5 語言模型的聊天機器人) 的寫作能力是否能幫助人類作者撰寫評論文章。

作者設計了一段指令作為文本生成的初始提示,然后對自動生成的內容進行評估。再進行徹底的審查之后,人類作者實際上重寫了手稿,努力在原始 proposal 和科學標準之間保持平衡,文章的最后也討論了使用人工智能實現(xiàn)這一目標的優(yōu)勢與局限性。

但是還有一個問題,作者列表里怎么沒有 ChatGPT?(手動狗頭)

論文寫作方法

本文是在 ChatGPT 的輔助下生成的,ChatGPT 是 2022 年 11 月 30 日發(fā)布的一個自然語言處理系統(tǒng),由 OpenAI 用大量文本語料庫進行訓練,能夠根據提供給它的輸入生成類似人類寫作的文本。

就本文而言,人類作者提供的輸入包括論文的主題(人工智能在藥物發(fā)現(xiàn)中的應用)、需要考慮的章節(jié)數量,以及每個章節(jié)的具體提示和說明。

ChatGPT 生成的文本需要經過人工編輯后才能作為最終的定稿,以糾正和豐富內容,避免重復和不一致等問題;并且人類也需要對人工智能建議的所有參考文獻進行了修改。

這項工作的最終版本是人類作者在人工智能的協(xié)助下進行反復修改的結果,直接從 ChatGPT 獲得的初步文本與當前版本手稿之間的總相似度為:完全相同的 4.3%,微小的變化 13.3%,相關的意義 16.3%。直接從 ChatGPT 獲得的初步文本中,正確的參考文獻比例僅為 6%。

由 ChatGPT 生成的原始版本,以及用于創(chuàng)建該版本的輸入信息都涵蓋進來作為 Supporting Information

論文摘要中的插圖由 DALL-E 生成。

論文內容

論文總共包括 10 個 section 和 56 個參考文獻,其中 section1-9 都只包含 1-2 個段落,主要描述論文主題「「人工智能在藥物發(fā)現(xiàn)中的挑戰(zhàn)、機遇和策略」」相關的內容;第十個 section 主要討論「人類作者對基于 ChatGPT 和 AI 的科學寫作工具的專家意見」;文章中只有摘要部分包含一張插圖。

摘要

人工智能有可能徹底改變藥物發(fā)現(xiàn)過程,提供更好的效率、準確性和速度。然而,AI 的成功應用取決于高質量數據的可用性、對道德問題的處理以及對基于人工智能方法的局限性的認識。

這篇文章回顧了人工智能在這個領域的好處、挑戰(zhàn)和缺點,并提出了克服目前障礙的可能戰(zhàn)略和方法。

文章中還討論了數據增強的使用、可解釋的人工智能、人工智能與傳統(tǒng)實驗方法的整合,以及人工智能在醫(yī)藥研究中的潛在優(yōu)勢。

總的來說,這篇評論強調了人工智能在藥物發(fā)現(xiàn)中的潛力,并對實現(xiàn)其在該領域的潛力所面臨的挑戰(zhàn)和機遇進行了深入探討。

人類作者對基于 ChatGPT 和 AI 的科學寫作工具的專家意見

ChatGPT 是一個基于 GPT-3.5 語言模型的聊天機器人,它的設計目標并非是撰寫科學論文的助手,但它與人類進行連貫的對話并就廣泛的主題提供新信息的能力,以及它糾正甚至生成計算代碼的能力,都讓科學界感到驚訝。

因此,我們決定測試它的潛力,為編寫關于人工智能算法在藥物發(fā)現(xiàn)中的作用的簡短評論做出貢獻。

作為撰寫科學論文的助手,ChatGPT 有幾個優(yōu)點,包括快速生成和優(yōu)化文本的能力,以及幫助用戶完成幾個任務,包括組織信息,甚至在某些情況下連接思想。

然而,這個工具絕不是生成新內容的理想工具。

輸入 instructions 后,還需要人類對人工智能生成的文本進行修改,而且是大篇幅的編輯和修正,包括替換幾乎所有的參考文獻,因為 ChatGPT 提供的參考文獻明顯不正確。

這也是 ChatGPT 目前存在的一個大問題,它與其他計算工具(如搜索引擎)相比有一個關鍵的區(qū)別,后者主要是為所需的信息提供可靠的參考。

而采用基于人工智能的工具進行寫作輔助還存在另一個重要的問題:它是在 2021 年訓練的,所以它并不包括最新信息。

這次寫作實驗提供的結果就是:我們可以說 ChatGPT 不是一個有用的工具,在沒有強大的人類干預的情況下無法編寫可靠的科學文本。

ChatGPT 缺乏準確和充分傳達復雜科學概念和信息所需的知識和專長。

此外,ChatGPT 使用的語言和風格可能不適合學術寫作,為了生成高質量的科學文本,人類的輸入和審查是必不可少的。

這種人工智能還不能用于生產科學文章的主要原因之一是它缺乏評估處理信息真實性和可靠性的能力,因此,由 ChatGPT 生成的科學文本肯定包含錯誤或誤導性信息。

同樣需要注意的是,審稿人可能會發(fā)現(xiàn)區(qū)分由人類或這個人工智能寫的文章并非易事。

這使得審查過程必須徹底,以防止虛假或誤導性信息的發(fā)表。

一個真正的風險是,掠奪性期刊(predatory journals)可能利用科學文章的快速生產來產生大量的低質量內容,這些期刊往往受利益驅使,而不是致力于科學進步,它們可能利用人工智能快速生產文章,讓不合格的研究充斥市場,破壞科學界的公信力。

最大的危險之一是科學文章中虛假信息的潛在擴散,這可能導致科學事業(yè)本身的貶值,失去對科學研究的準確性和完整性的信任,會對科學的進步產生不利影響。

有幾種可能的解決方案來減輕與使用人工智能制作科學文章有關的風險。

一個解決方案是開發(fā)專門用于生產科學文章的人工智能算法。這些算法可以在高質量、經同行評議的研究的大型數據集上進行訓練,這將有助于確保其生成的信息的真實性。

此外,這些算法可以被編程為標記潛在的問題信息,如引用不可靠的來源,這將提醒研究人員需要進一步審查和核實。

另一種方法是開發(fā)能夠更好地評估其處理的信息的真實性和可靠性的人工智能系統(tǒng)。這可能涉及在高質量科學文章的大型數據集上訓練人工智能,以及使用交叉驗證和同行評審等技術,以確保人工智能產生準確和值得信賴的結果。

另一個可能的解決方案是為人工智能在科學研究中的應用制定更嚴格的準則和法規(guī),比如包括要求研究人員披露他們在制作文章時使用了人工智能,并實施審查程序以確保人工智能生成的內容符合某些質量和準確性標準。

此外,還可以包括要求研究人員在發(fā)表前徹底審查和核實人工智能生成的任何信息的準確性,以及對那些未能這樣做的人的懲罰,教育公眾了解人工智能的局限性和依靠人工智能進行科學研究的潛在危險也可能是有用的,可以幫助防止錯誤信息的傳播,確保公眾能夠更好地區(qū)分可靠和不可靠的科學信息來源。

資助機構和學術機構可以通過提供培訓和資源,幫助研究人員了解該技術的局限性,在促進科學研究中負責任地使用人工智能方面發(fā)揮作用。

總的來說,解決與在科學文章制作中使用人工智能相關的風險,將需要技術解決方案、監(jiān)管框架和公共教育的結合。

通過實施這些措施,我們可以確保人工智能在科學界的使用是負責任和有效的。研究人員和政策制定者必須仔細考慮在科學研究中使用人工智能的潛在危險,并采取措施來減少這些風險。

在人工智能能夠被信任以產生可靠和準確的信息之前,它在科學界的使用應該是謹慎的,必須仔細評估人工智能工具提供的信息,并使用可靠的來源進行驗證。

參考資料:

  • https://arxiv.org/abs/2212.08104

本文來自微信公眾號:新智元 (ID:AI_era)

廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。

相關文章

關鍵詞:人工智能,ChatGPT

軟媒旗下網站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機APP應用 魔方 最會買 要知