Nature調查:僅4%科學家認為AI已成“必需品” | 1600+人參與
受訪者從4萬多名研究人員中選出
西風 發(fā)自 凹非寺
量子位 | 公眾號 QbitAI
AI論文暴增,而真正覺得它是“剛需”的研究者,竟然只有4%?!

這一結論來自Nature的最新調查。
更準確一點,是對那些會在科學研究中使用AI工具的研究者的調查結果。
這些人是從2022年最后四個月發(fā)表了論文的4萬多名研究者中挑選而出的,遍布全球,來自不同學科領域。
此外,開發(fā)AI工具的“局內人”和在研究中不使用AI工具“局外人”也在調查之列。
目前相關結果已經以“AI and science: what 1,600 researchers think”為題刊出。

科學研究人員到底是如何看待AI工具的?我們接著往下看。
1600位研究人員的AI看法
這項調查主要集中于研究人員對機器學習和生成式AI的看法。
為了保證調查結果的客觀有效,如上所述,Nature通過電子郵件聯系了在2022年最后4個月內發(fā)表論文的來自世界各地的4萬多名科學家,并邀請了Nature簡報的讀者參與調查。
最終選出了1659位受訪者,具體樣本構成如下:

受訪者中來自亞(28%)、歐(近1/3)、北美(20%)的人居多。
其中,48%的人直接開發(fā)或研究AI,30%的人在研究中使用AI,22%的人在研究中不使用AI。
下面來看詳細結果。
據調查,那些在研究中使用AI的人中,超1/4的人認為AI工具將在未來十年內成為他們所在領域的“必需品”。
但認為AI工具現在已是“必需品”的人只占4%?,另有47%的人認為人工智能未來將“非常有用”。
相較之下,不使用AI的研究人員對此并不是很感興趣。即便如此,仍有9%的人認為這些技術將在未來十年內變得“必不可少”,另有34%的人表示它們將“非常有用”。

在對關于機器學習的看法調查中,受訪者需選擇AI工具所帶來的積極作用。2/3的受訪者認為AI提供了更快的數據處理方式,58%的人認為AI加速了以前不可行的計算,其次55%的人提到AI節(jié)省了時間和金錢。

而受訪者們認為的AI可能帶來的消極作用主要有:導致更多地依賴模式識別而不是深刻理解(69%)、可能會在數據中強化偏見或歧視(58%)、可能會增加欺詐的發(fā)生概率(55% )、盲目使用可能會導致研究無法重現(53% )。

再來看研究人員對生成式AI工具的看法。
大多數人認為生成式AI工具的一大優(yōu)點是總結和翻譯, 可以幫助非英語母語的研究人員改進論文語法和風格。其次,其編寫代碼的能力也得到了贊同。

但是生成式AI也存在一些問題。研究人員最擔心的是信息傳播不準確(68%)、使抄襲更容易檢測更難(68%)、在論文/代碼中引入錯誤或不準確的內容(66%)。

受訪者還補充道,如果用于醫(yī)療診斷的AI工具是基于有偏見的數據訓練出來的,他們擔心可能會出現偽造研究、虛假信息和長期存在的偏見。
此外,根據使用頻率統(tǒng)計,即使是對AI感興趣的研究人員,在工作中經常使用大語言模型的仍然是少數。

在所有被調查群體中,研究者們用AI做的最多的事兒是與研究無關的創(chuàng)意娛樂*;其次是用AI工具編寫代碼、構思研究思路、幫助撰寫論文。

有一些科學家對大模型的輸出并不滿意。一位用大模型協助編輯論文的研究人員寫道:
感覺ChatGPT已經復制了人類所有的不良寫作習慣。
芬蘭圖爾庫大學的物理學家Johannes Niskanen表示:
如果我們使用AI來閱讀和撰寫文章,科學很快就會從“for humans by humans”轉變?yōu)椤癴or machines by machines”。
在這項調查中,Nature還深入探究了研究人員對AI發(fā)展所面臨的困境的看法。
AI發(fā)展所面臨的困境
約一半的研究人員表示他們在開發(fā)或使用AI方面遇到了阻礙。
研究開發(fā)AI的研究人員最擔心的問題是:計算資源不足、研究資金不足以及用于AI訓練的高質量數據不足。
而在其他領域工作但在研究中使用AI的人則更擔心缺乏具備足夠技能的科學家和訓練資源,還有安全和隱私。
不使用AI的研究人員表示他們不需要AI或認為AI不實用、又或者他們缺乏經驗時間來研究這些AI工具。

值得一提的是,商業(yè)巨頭主導了AI的計算資源和AI工具的所有權也是受訪者關注的問題。
AI工具開發(fā)者中有23%表示,他們與開發(fā)AI工具的公司合作或就在這些公司工作(其中最常提到的是谷歌和微軟),而僅使用AI的人中只有7%有這樣的經歷。
總體而言,過半受訪者認為使用AI的研究人員與這些公司的科學家進行合作是“非?!被颉坝行敝匾?。

除了開發(fā),使用方面也出現了一些問題。
此前就有研究人員表示,在科學研究中盲目使用AI工具可能導致錯誤、虛假和無法重現的研究結果。
堪薩斯州立大學曼哈頓分校的計算機科學家Lior Shamir認為:
機器學習有時可能有用,但AI引發(fā)的問題要比它所提供的幫助多??茖W家在不了解自己在做什么的情況下使用AI,就可能會導致虛假的發(fā)現。
當被問及期刊編輯和同行評審員是否能夠充分審查使用人工智能的論文時,受訪者的意見不一。
在研究中使用AI但不直接開發(fā)AI的研究人員中,約一半人表示不確定,1/4認為審查是充分的,也有1/4認為審查不充分。而那些直接開發(fā)AI的研究人員則傾向于對編輯和審查過程持更積極的看法。

除此之外,Nature還詢問了受訪者對于AI在社會的7種潛在影響的擔憂程度。
傳播錯誤信息成為了研究人員最為擔心的問題,2/3的人表示他們對此“非常擔心”或“很擔心”。
最不令人擔心的是AI可能對人類構成生存威脅。

參考鏈接:https://www.nature.com/articles/d41586-023-02980-0
- 多人有聲視頻一體化生成!用百度最新AI生成營銷視頻,現在1.4元/5秒2025-08-22
- 馬斯克一覺醒來,Space X在京開賣了2025-08-21
- 離譜!現在的Agent都卷成100個成團了?3分鐘并行干完5個復雜任務,還能隨時改需求2025-08-18
- 國家級AI創(chuàng)新應用賽事殺瘋了!超200萬元獎金池+全場景賽道,沖線團隊速來2025-08-15