文 / 曾子固
傑瑪·康羅伊Gemma Conroy發表在最新一期《自然》(Nature)的<ChatGPT 和其他人工智慧工具如何顛覆科學出版>( How ChatGPT and other AI tools could disrupt scientific publishing)指出,「人工智慧輔助寫作和審查的世界可能會改變科學論文的性質。」(A world of AI-assisted writing and reviewing might transform the nature of the scientific paper.)
「我用它作為參謀」
當放射科醫生 Domenico Mastrodicasa 在撰寫研究論文時發現自己陷入困境時,他求助於 ChatGPT,這款聊天機器人可以在幾秒鐘內對幾乎任何查詢做出流暢的回應。「我用它作為參謀,」西雅圖華盛頓大學醫學院的馬斯特羅迪卡薩說。「我可以更快地製作出可供出版的手稿。」
Mastrodicasa 是眾多嘗試使用生成式人工智慧 (AI) 工具來編寫文字或程式碼的研究人員之一。他付費購買了 ChatGPT Plus(基於大語言模型 (LLM) GPT-4 的機器人訂閱版本),並每週使用幾次。他發現它對於提出更清晰的方式來傳達他的想法特別有用。儘管《自然》雜誌的一項調查顯示,經常使用LLMs(Large Language Models)的科學家仍佔少數,但許多人預計生成式人工智慧工具將成為撰寫手稿、同行評審報告和資助申請的常規助理。
(相關報導請看《銳傳媒》< 人工智慧深度造假,科學陷入困境>)
這些只是人工智慧改變科學傳播和出版的一些方式。科學出版商已經在科學搜尋工具以及編輯和快速總結論文中嘗試使用生成式人工智慧。許多研究人員認為非英語母語人士可以從這些工具中受益最多。有些人認為生成式人工智慧是科學家重新思考如何詢問和總結實驗結果的一種方式——他們可以使用LLMs(Large Language Models)來完成大部分這項工作,這意味著更少的時間寫論文和更多的時間做實驗。
ChatGPT可以從根本上改變科學論文的性質
「寫論文從來都不是任何人的真正目標,而是做科學,」加州大學柏克萊分校的計算生物學家、 《eLife》雜誌的主編 Michael Eisen 說。他預測,生成式人工智慧工具甚至可以從根本上改變科學論文的性質。
但不準確和虛假的幽靈威脅著這個願景。LLMs(Large Language Models)只是產生符合其輸入模式的風格上合理的輸出的引擎,而不是產生準確的資訊。出版商擔心,它們的使用增加可能會導致品質低劣或錯誤較多的手稿數量增加,而且可能會出現大量人工智慧輔助的贗品。
英國布里斯托爾 IOP 出版社負責出版物理科學期刊,負責同行評審的勞拉·菲瑟姆 (Laura Feetham) 表示:「任何像這樣的破壞性事件都可能非常令人擔憂。」
假貨氾濫?可能會讓人們更容易寫出品質低劣的論文
科學出版商和其他機構已經確定了一系列對產生人工智慧潛在影響的擔憂。倫敦研究分析公司Digital Science 的執行長 Daniel Hook 表示,生成式人工智慧工具的可及性可能會讓人們更容易寫出品質低劣的論文,最壞的情況下,還會損害研究的完整性。「出版商感到害怕是完全正確的,」胡克說。(Digital Science 隸屬於 Holtzbrinck 出版集團,該集團是《自然》雜誌出版商施普林格·自然 (Springer Nature) 的大股東;《自然》新聞團隊在編輯上是獨立的。)
在某些情況下,研究人員已經承認使用 ChatGPT 來幫助撰寫論文,但沒有透露這一事實。他們之所以被抓,是因為他們忘記刪除其使用的明顯跡象,例如虛假引用或軟體預編程的回應,表明它是人工智慧語言模型。
理想情況下,出版商能夠偵測 LLM 產生的文字。在實踐中,迄今為止,人工智慧檢測工具已被證明無法可靠地識別出此類文本,同時避免將人類撰寫的散文標記為人工智慧的產物。
儘管商業LLMs(Large Language Models)的開發人員正在努力為LLMs(Large Language Models)生成的輸出添加水印以使其可識別,但尚未有公司將其推出到文本中。英國牛津大學法律學者 Sandra Wachter 表示,任何浮水印都可以被刪除,她專注於新興技術的道德和法律影響。她希望世界各地的立法者堅持要求LLMs公開資訊或加水印,並將刪除水印定為非法。
如何阻止人工智慧深度造假讓社會和科學陷入困境
出版商正在解決這個問題,要麼完全禁止使用LLMs(正如《科學》雜誌的出版商美國科學促進會所做的那樣),要麼在大多數情況下堅持透明度(《自然》雜誌和許多其他雜誌的政策)。期刊)。一項對100 家出版商和期刊進行調查的研究發現,截至5 月,17% 的出版商和70% 的期刊發布瞭如何使用生成式AI 的指南,儘管他們對如何應用這些工具的方式有所不同,Giovanni Cacciamani 說。洛杉磯南加州大學的泌尿科醫生,他是這篇論文的合著者,該論文尚未經過同行評審1。他和他的同事正在與科學家和期刊編輯合作制定一套統一的指南,以幫助研究人員報告他們對LLMs的使用情況。
許多編輯擔心生成式人工智慧可能會被用來更容易地製作虛假但令人信服的文章。那些為想要提高出版產量的研究人員創作並出售手稿或作者職位的公司(稱為造紙廠)可能會獲利。《科學》雜誌的一位發言人告訴《自然》雜誌,像 ChatGPT 這樣的LLMs可能會加劇造紙廠的問題。
對這些擔憂的一種回應可能是一些期刊加強他們的方法來驗證作者的真實性並完成他們提交的研究。「對於期刊來說,了解某人是否真的做了他們聲稱的事情非常重要,」Wachter 說。
德國海德堡的出版商 EdBO Press 的科學出版物負責人 Bernd Pulverer 表示,作者必須僅使用可驗證的機構電子郵件地址進行投稿,編輯人員透過視訊與作者和審稿人會面。但他補充說,研究機構和資助者也需要更密切地監控員工和資助者的成果。「這不能完全委託給期刊,」他說。
公平與不平等
當《自然》雜誌對研究人員進行調查,詢問他們認為生成式人工智慧對科學的最大好處是什麼時,最受歡迎的答案是它將幫助那些母語不是英語的研究人員。「人工智慧工具的使用可以提高科學的公平性,」澳洲布里斯班昆士蘭大學的保育科學家天野達也說。天野之彌和他的同事對900 多名環境科學家進行了調查,他們至少寫了一篇英文論文。在職業生涯早期的研究人員中,非英語母語人士表示,他們的論文因寫作問題而被拒絕的頻率是英語母語人士的兩倍多,而且他們撰寫論文的時間也更少。天野說,ChatGPT 和類似的工具可能為這些研究人員提供「巨大的幫助」。
天野之母的母語是日語,他一直在嘗試使用 ChatGPT,並表示該過程類似於與母語為英語的同事合作,儘管該工具的建議有時不盡如人意。今年 3 月,在《科學》雜誌禁止生成人工智慧工具後,他在《科學》雜誌上共同撰寫了一篇社論,認為只要作者披露其用途,例如將原始手稿與人工智慧編輯的第3 版一起納入,它們就可以使科學出版更加公平。。
人工智慧與科學:1,600 位研究人員的想法
LLMs(Large Language Models)遠不是第一個可以潤飾寫作的人工智慧輔助軟體。但東京大學人工智慧研究員 Irene Li 表示,生成式人工智慧要靈活得多。她之前使用 Grammarly(一種人工智慧驅動的語法和拼字檢查器)來提高她的書面英語水平,但後來改用 ChatGPT,因為它更通用,從長遠來看可以提供更好的價值;她無需支付多種工具的費用,只需訂閱一款即可完成所有工作的工具。「這節省了很多時間,」她說。
然而,人工智慧倫理學家、馬裡蘭州羅克維爾美國病理研究學會科學推廣主任 Chhavi Chauhan 表示,LLMs的培養方式可能會加劇不平等。Chauhan 擔心,一些免費的LLMs(Large Language Models)將來可能會變得昂貴,無法支付開發和運行它們的成本,而且如果出版商使用人工智能驅動的檢測工具,他們更有可能錯誤地將非英語母語人士撰寫的文本標記為人工智慧。7 月的一項研究發現,當前一代 GPT 探測器確實會發生這種情況。「我們完全忽視了這些生成式人工智慧模型將造成的不平等,」她說。
同儕審查的挑戰
LLMs對同儕審查員來說也是一個福音。Mastrodicasa 表示,自從使用 ChatGPT Plus 作為助手以來,他能夠接受更多審查請求,並使用LLMs來潤飾他的評論,儘管他不會將手稿或其中的任何資訊上傳到線上工具中。「當我已經有了草稿時,我可以在幾個小時而不是幾天內對其進行完善,」他說。「我認為這將不可避免地成為我們工具包的一部分。」 德國耶拿弗里德里希席勒大學的化學資訊學研究員 Christoph Steinbeck 發現 ChatGPT Plus 可以方便地為他正在審查的預印本創建快速摘要。他指出,預印本已經在線上發布,因此保密性不是問題。
Mohammad Hosseini 表示,一個關鍵的擔憂是,研究人員可能會依靠 ChatGPT 不假思索地提出評論,儘管直接要求LLMs審查稿件的天真行為除了摘要和文案編輯建議之外可能不會產生什麼價值,他在伊利諾伊州芝加哥西北大學加爾特健康科學圖書館和學習中心研究研究倫理和誠信。
科學偵探發現論文中不誠實的 ChatGPT 使用
早期對LLMs在同儕審查中的擔憂大多與保密性有關。包括Elsevier、Taylor & Francis 和IOP Publishing 在內的幾家出版商禁止研究人員將手稿和文本部分上傳到生成人工智慧平台以產生同行評審報告,因為擔心這些工作可能會反饋到LLMs的培訓數據集中,這將違反保密工作的合約條款。6 月,出於保密考慮,美國國立衛生研究院禁止使用 ChatGPT 和其他生成式人工智慧工具對資助進行同儕審查。兩週後,澳洲研究委員會在撥款審查期間禁止使用生成式人工智慧出於同樣的原因,網路上出現了一些似乎是ChatGPT寫的評論後。
繞過保密障礙的一種方法是使用私人託管的LLMs。有了這些,人們就可以確信數據不會回饋給在雲端中託管LLMs的公司。位於坦佩的亞利桑那州立大學正在試驗基於開源模型的私人託管LLMs。「這是一個可以解決的問題,」該大學知識企業首席科學技術官尼爾·伍德伯里(Neal Woodbury)說,他為大學領導者提供有關研究計劃的建議。
Feetham 表示,如果LLMs如何儲存、保護和使用放入其中的資料更加清楚,那麼這些工具就可以整合到出版商已經使用的審閱系統中。「如果這些工具使用得當,就會有真正的機會。」 五年多來,出版商一直在使用機器學習和自然語言處理人工智慧工具來協助同行評審,而生成式人工智慧可以增強該軟體的功能。出版商 Wiley 的發言人表示,該公司正在試驗產生人工智慧,以幫助篩選手稿、選擇審查者並驗證作者的身份。
道德問題
然而,一些研究人員認為,LLMs在道德上過於模糊,不適合納入科學出版過程。荷蘭奈梅亨拉德堡德大學的認知科學家 Iris van Rooij 表示,一個主要問題在於LLMs(Large Language Models)的工作方式:在不考慮偏見、同意或版權的情況下搜尋網路內容。她補充說,生成式人工智慧是「有意設計的自動抄襲」,因為用戶不知道這些工具從哪裡獲取資訊。她認為,如果研究人員更意識到這個問題,他們就不會想使用生成式人工智慧工具。
於非英語母語人士來說,科學語言障礙的真正代價
一些新聞機構已經阻止 ChatGPT 的機器人對其網站進行搜索,媒體報告表明一些公司正在考慮提起訴訟。儘管科學出版商還沒有在公開場合走得那麼遠,但威利告訴《自然》雜誌,它「正在密切關注行業報告和訴訟,聲稱生成人工智慧模型正在收集受保護的材料用於培訓目的,同時無視對該資訊的任何現有限制」。該出版商還指出,它呼籲加強監管,包括LLMs提供者的透明度和審計義務。
Hosseini 也是 Taylor & Francis 出版的《Accountability in Research》雜誌的助理編輯,他建議對LLMs進行特定學科科學文獻的培訓可能是提高其成果與科學家的準確性和相關性的一種——方法《自然》雜誌聯繫的出版商均未表示他們正在這樣做。
英國布里斯託大學研究政策和文化研究的傑瑪·德里克(Gemma Derrick)表示,如果學者開始依賴LLMs,另一個擔憂是他們的表達能力可能會萎縮。她說,職業生涯早期的研究人員可能會錯過培養進行公平和平衡審查的技能的機會。
轉型變革
加拿大蒙特婁米拉魁北克人工智慧研究所的高級機器學習科學家 Patrick Mineault 表示,更廣泛地說,生成式人工智慧工具有可能改變研究成果的發表和傳播方式。這可能意味著研究成果將以機器而非人類可以輕鬆閱讀的方式發表。「將會出現所有這些新的出版形式,」米諾說。
在LLMs時代,艾森描繪了這樣一個未來:研究結果以互動的「按需論文」格式發布,而不是作為靜態的、一刀切的產品。在這個模型中,使用者可以使用生成式人工智慧工具來詢問有關實驗、數據和分析的問題,這將使他們能夠深入研究與他們最相關的研究方面。它還允許用戶訪問根據其需求定制的結果描述。「我認為我們停止使用單一敘述作為人們與科學研究結果之間的介面只是時間問題,」艾森說。
scite 和 Elicit 等公司已經推出了搜尋工具,利用LLMs(Large Language Models)為研究人員提供查詢的自然語言答案;八月,愛思唯爾推出了自己的工具 Scopus AI 的試點版本,以快速總結研究主題。一般來說,這些工具使用LLMs(Large Language Models)來重新表述從傳統搜尋查詢返回的結果。
Mineault 補充說,生成式人工智慧工具可以改變研究人員進行薈萃分析和評論的方式——儘管前提是這些工具編造資訊和參考文獻的傾向能夠得到充分解決。Mineault 見過的最大規模的人工生成評論包括大約 1,600 篇論文,但與生成式人工智慧的合作可能會更進一步。「這在整個科學文獻中只佔很小的一部分,」他說。「問題是,現在科學文獻中有多少東西可以被利用?」
本文僅代表作者立場,不代表本平台立場
Facebook Comments 文章留言