斯坦福科學家探索AI輔助科研與同行評審的潛力與侷限
MMetaEra
4 月 1 日(UTC+8),斯坦福大學電腦科學家 James Zou 近日探索了大型語言模型在協助科學同行評審和加速科研程序方面的應用。他參與了一項涉及約 2 萬份評審的大規模隨機實驗,以評估 AI 輔助對評審質量的影響。
研究發現,AI 在發現客觀、可驗證的錯誤或不一致(如資料不符、公式錯誤)方面表現出色,但在評估研究新穎性或重要性等主觀判斷方面存在侷限,有時甚至表現出奉承傾向。Zou 強調,AI 應支援而非取代人類決策,科學家需對研究最終負責,並應透明說明 AI 的參與程度。
實驗表明,AI 反饋提升了評審質量和評審員參與度。未來計劃舉辦更多會議以規範 AI 在科學中的應用。
[ME News]