AI 論文暴增,而真正覺得它是“剛需”的研究者,竟然只有 4%?!
這一結(jié)論來自 Nature 的最新調(diào)查。
更準(zhǔn)確一點(diǎn),是對(duì)那些會(huì)在科學(xué)研究中使用 AI 工具的研究者的調(diào)查結(jié)果。
這些人是從 2022 年最后四個(gè)月發(fā)表了論文的 4 萬多名研究者中挑選而出的,遍布全球,來自不同學(xué)科領(lǐng)域。
此外,開發(fā) AI 工具的“局內(nèi)人”和在研究中不使用 AI 工具的“局外人”也在調(diào)查之列,總調(diào)查人數(shù)達(dá) 1600+。
目前相關(guān)結(jié)果已經(jīng)以“AI and science: what 1,600 researchers think”為題刊出。
科學(xué)研究人員到底是如何看待 AI 工具的?我們接著往下看。
1600 位研究人員的 AI 看法
這項(xiàng)調(diào)查主要集中于研究人員對(duì)機(jī)器學(xué)習(xí)和生成式 AI 的看法。
為了保證調(diào)查結(jié)果的客觀有效,如上所述,Nature 通過電子郵件聯(lián)系了在 2022 年最后 4 個(gè)月內(nèi)發(fā)表論文的來自世界各地的 4 萬多名科學(xué)家,并邀請(qǐng)了 Nature 簡(jiǎn)報(bào)的讀者參與調(diào)查。
最終選出了 1659 位受訪者,具體樣本構(gòu)成如下:
受訪者中來自亞(28%)、歐(近 1/3)、北美(20%)的人居多。
其中,48% 的人直接開發(fā)或研究 AI,30% 的人在研究中使用 AI,22% 的人在研究中不使用 AI。
下面來看詳細(xì)結(jié)果。
據(jù)調(diào)查,那些在研究中使用 AI 的人中,超 1/4 的人認(rèn)為 AI 工具將在未來十年內(nèi)成為他們所在領(lǐng)域的“必需品”。
但認(rèn)為 AI 工具現(xiàn)在已是“必需品”的人只占 4% ,另有 47% 的人認(rèn)為人工智能未來將“非常有用”。
相較之下,不使用 AI 的研究人員對(duì)此并不是很感興趣。即便如此,仍有 9% 的人認(rèn)為這些技術(shù)將在未來十年內(nèi)變得“必不可少”,另有 34% 的人表示它們將“非常有用”。
在對(duì)關(guān)于機(jī)器學(xué)習(xí)的看法調(diào)查中,受訪者需選擇 AI 工具所帶來的積極作用。2/3 的受訪者認(rèn)為 AI 提供了更快的數(shù)據(jù)處理方式,58% 的人認(rèn)為 AI 加速了以前不可行的計(jì)算,其次 55% 的人提到 AI 節(jié)省了時(shí)間和金錢。
而受訪者們認(rèn)為的 AI 可能帶來的消極作用主要有:導(dǎo)致更多地依賴模式識(shí)別而不是深刻理解(69%)、可能會(huì)在數(shù)據(jù)中強(qiáng)化偏見或歧視(58%)、可能會(huì)增加欺詐的發(fā)生概率(55% )、盲目使用可能會(huì)導(dǎo)致研究無法重現(xiàn)(53% )。
再來看研究人員對(duì)生成式 AI 工具的看法。
大多數(shù)人認(rèn)為生成式 AI 工具的一大優(yōu)點(diǎn)是總結(jié)和翻譯,可以幫助非英語母語的研究人員改進(jìn)論文語法和風(fēng)格。其次,其編寫代碼的能力也得到了贊同。
但是生成式 AI 也存在一些問題。研究人員最擔(dān)心的是信息傳播不準(zhǔn)確(68%)、使抄襲更容易檢測(cè)更難(68%)、在論文 / 代碼中引入錯(cuò)誤或不準(zhǔn)確的內(nèi)容(66%)。
受訪者還補(bǔ)充道,如果用于醫(yī)療診斷的 AI 工具是基于有偏見的數(shù)據(jù)訓(xùn)練出來的,他們擔(dān)心可能會(huì)出現(xiàn)偽造研究、虛假信息和長期存在的偏見。
此外,根據(jù)使用頻率統(tǒng)計(jì),即使是對(duì) AI 感興趣的研究人員,在工作中經(jīng)常使用大語言模型的仍然是少數(shù)。
在所有被調(diào)查群體中,研究者們用 AI 做的最多的事兒是與研究無關(guān)的創(chuàng)意娛樂 *;其次是用 AI 工具編寫代碼、構(gòu)思研究思路、幫助撰寫論文。
有一些科學(xué)家對(duì)大模型的輸出并不滿意。一位用大模型協(xié)助編輯論文的研究人員寫道:
感覺 ChatGPT 已經(jīng)復(fù)制了人類所有的不良寫作習(xí)慣。
芬蘭圖爾庫大學(xué)的物理學(xué)家 Johannes Niskanen 表示:
如果我們使用 AI 來閱讀和撰寫文章,科學(xué)很快就會(huì)從“for humans by humans”轉(zhuǎn)變?yōu)椤癴or machines by machines”。
在這項(xiàng)調(diào)查中,Nature 還深入探究了研究人員對(duì) AI 發(fā)展所面臨的困境的看法。
AI 發(fā)展所面臨的困境
約一半的研究人員表示他們?cè)陂_發(fā)或使用 AI 方面遇到了阻礙。
研究開發(fā) AI 的研究人員最擔(dān)心的問題是:計(jì)算資源不足、研究資金不足以及用于 AI 訓(xùn)練的高質(zhì)量數(shù)據(jù)不足。
而在其他領(lǐng)域工作但在研究中使用 AI 的人則更擔(dān)心缺乏具備足夠技能的科學(xué)家和訓(xùn)練資源,還有安全和隱私。
不使用 AI 的研究人員表示他們不需要 AI 或認(rèn)為 AI 不實(shí)用、又或者他們?nèi)狈?jīng)驗(yàn)時(shí)間來研究這些 AI 工具。
值得一提的是,商業(yè)巨頭主導(dǎo)了 AI 的計(jì)算資源和 AI 工具的所有權(quán)也是受訪者關(guān)注的問題。
AI 工具開發(fā)者中有 23% 表示,他們與開發(fā) AI 工具的公司合作或就在這些公司工作(其中最常提到的是谷歌和微軟),而僅使用 AI 的人中只有 7% 有這樣的經(jīng)歷。
總體而言,過半受訪者認(rèn)為使用 AI 的研究人員與這些公司的科學(xué)家進(jìn)行合作是“非?!被颉坝行敝匾摹?/p>
除了開發(fā),使用方面也出現(xiàn)了一些問題。
此前就有研究人員表示,在科學(xué)研究中盲目使用 AI 工具可能導(dǎo)致錯(cuò)誤、虛假和無法重現(xiàn)的研究結(jié)果。
堪薩斯州立大學(xué)曼哈頓分校的計(jì)算機(jī)科學(xué)家 Lior Shamir 認(rèn)為:
機(jī)器學(xué)習(xí)有時(shí)可能有用,但 AI 引發(fā)的問題要比它所提供的幫助多??茖W(xué)家在不了解自己在做什么的情況下使用 AI,就可能會(huì)導(dǎo)致虛假的發(fā)現(xiàn)。
當(dāng)被問及期刊編輯和同行評(píng)審員是否能夠充分審查使用人工智能的論文時(shí),受訪者的意見不一。
在研究中使用 AI 但不直接開發(fā) AI 的研究人員中,約一半人表示不確定,1/4 認(rèn)為審查是充分的,也有 1/4 認(rèn)為審查不充分。而那些直接開發(fā) AI 的研究人員則傾向于對(duì)編輯和審查過程持更積極的看法。
除此之外,Nature 還詢問了受訪者對(duì)于 AI 在社會(huì)的 7 種潛在影響的擔(dān)憂程度。
傳播錯(cuò)誤信息成為了研究人員最為擔(dān)心的問題,2/3 的人表示他們對(duì)此“非常擔(dān)心”或“很擔(dān)心”。
最不令人擔(dān)心的是 AI 可能對(duì)人類構(gòu)成生存威脅。
參考鏈接:https://www.nature.com/ articles / d41586-023-02980-0
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。