自OpenAI在2022年11月發佈ChatGPT以來,學術界的寫作生態經歷了翻天覆地的變化。最新研究揭示,科學家們越來越依賴於ChatGPT這樣的人工智能工具來撰寫研究論文,這一趨勢在2024年尤爲顯著。

德國圖賓根大學的研究人員對2010年至2024年間的1400萬篇PubMed文獻摘要進行了深入分析。他們驚訝地發現,至少10%的2024年發佈的研究論文在撰寫過程中使用了大型語言模型(LLMs)如ChatGPT進行輔助。在某些特定領域和國家,這一比例更是高得驚人。

image.png

研究結果表明,LLMs對科學文獻的影響之深遠,甚至超越了COVID-19疫情對學術寫作的衝擊。通過分析詞彙使用頻率的變化,研究人員注意到,自ChatGPT發佈以來,許多特定的風格詞彙,如"delves"、"showcasing"和"underscores"的使用頻率顯著增加,這反映出科學家們在撰寫論文時,越來越多地藉助ChatGPT來潤色和修改文本。

研究還揭示了不同學科、國家和期刊之間的差異。在計算機科學和生物信息學等領域,LLMs的使用率最高,達到20%。在非英語母語國家如中國、韓國和臺灣,LLMs的使用率也相對較高,而在英語母語國家如英國和新西蘭的使用率則較低。此外,高聲望期刊如《Nature》、《Science》和《Cell》的LLMs使用率較低,而一些開放獲取期刊如《Sensors》和《Cureus》的使用率則較高。

image.png

LLMs在提升論文的語言質量和流暢性方面的確表現出色,但同時也引發了一些擔憂。例如,LLMs可能會引入不準確的信息,或在科學討論中強化現有的偏見。因此,如何合理使用這些工具,確保學術寫作的真實性和公正性,成爲了一個亟待解決的重要問題。

學術界需要制定明確的政策和指南,規範LLM在學術寫作中的使用。一些出版商和資助機構已經禁止在同行評審中使用LLM,或要求公開聲明LLM的使用。隨着這些工具的不斷普及,學術界可能需要重新審視和調整相關政策,以確保科學研究的高質量和可靠性。

這項研究不僅爲我們提供了一個全面瞭解LLMs在學術寫作中影響的視角,也爲我們敲響了警鐘。在享受AI帶來的便利的同時,我們更應深思如何利用這一工具,以促進而非妨礙科學的進步。