- Advertisement -spot_img
21.4 C
Taiwan
2024 年 6 月 13 日
spot_img

【洪存正專欄】科學如何定義生命終結的爭論?

文 / 洪存正 柯文哲的博士論文,一直被認為是「活摘器官」的爭議。腦死...

【于思專欄】進食的時間,影響健康

你吃飯的時間對你的體重、食慾和慢性疾病風險有顯著的影響。大多數人知道,你...

【王半山專欄】西方國家虛偽的好處

文 / 王半山 南方國家領導人長期以來一直指責西方國家虛偽,而且他們的...

【柳三變專欄】為什麼年輕女性胃癌發生率上升?

十多年前,邁阿密大學胃腸病學家兼研究員 Shria Kumar 開始注意...
-Advertisement-spot_img

【于思專欄】「非人類作者」別來鬧了!

- Advertisement -spot_imgspot_img
- Advertisement -spot_img

《美國醫學會雜誌》的總編輯Annette Flanagin 等人執筆,最新發表的<非人類「作者」及其對科學出版物和醫學知識完整性的影響>(Nonhuman 「Authors」 and Implications for the Integrity of Scientific Publication and Medical Knowledge.)對ChatGPT 人工智能 (AI) 技術寫成的論文下了「戰書」,不鼓勵提交和發布由人工智能、語言模型、機器學習或類似技術創建的內容。

文 / 于思 綜合報導

一種人工智能 (AI) 技術可幫助作者改進手稿和已發表文章的準備和質量,其數量和復雜性正在迅速增加。其中包括輔助寫作、語法、語言、參考、統計分析和報告標準的工具。編輯和出版商還出於多種目的使用人工智能輔助工具,包括篩選提交的問題(例如,剽竊、圖像處理、道德問題)、分類提交、驗證參考、編輯和編碼內容以在不同媒體上發布,並促進出版後搜索和可發現性。

2022 年 11 月,OpenAI 發布了一款名為 ChatGPT 的全新開源自然語言處理工具。ChatGPT 是聊天機器人的演變,旨在模擬人類對話以響應提示或問題(GPT 代表「生成式預訓練轉換器」)。該版本立即引發了人們對其許多潛在用途的興奮但也引發了對潛在濫用的擔憂,例如擔心使用該語言模型在家庭作業、寫作學生論文和參加考試(包括醫學執照考試)中作弊。2023 年 1 月,《自然》(Nature)報告了在科學和健康領域發表的 2 篇預印本和 2 篇文章,其中包括 ChatGPT 作為署名作者。其中每一篇都包含 ChatGPT 的隸屬關係,其中一篇文章包含非人類「作者」的電子郵件地址。根據Nature 的說法,該文章在作者署名中包含 ChatGPT 是一個「很快就會得到糾正的錯誤」。然而,這些文章及其非人類「作者」已經被 PubMed 和谷歌學術搜索收錄。

作者身份的歸屬伴隨著對工作的責任

《自然》(Nature)已經制定了一項政策來指導在科學出版中使用大規模語言模型,該政策禁止將此類工具命名為「研究論文的可信作者」,因為「作者身份的歸屬伴隨著對工作的責任,並且人工智能工具無法承擔這樣的責任。」該政策還建議使用這些工具的研究人員在手稿的方法或致謝部分記錄這種使用。其他期刊和組織正在迅速制定政策,禁止將這些非人類技術作為「作者」,範圍包括禁止在提交的作品中包含 AI 生成的文本要求學術出版物中如何使用和報告這些工具的完全透明、責任和問責制。國際機器學習會議呼籲在其會議上審查和討論論文,並宣布了一項新政策:「論文中包含從 ChatGPT 等大規模語言模型 (LLM) 生成的文本除非生成的文本作為論文實驗分析的一部分呈現,否則是被禁止的。」該協會指出,這項政策引發了一系列問題,它計劃「調查和討論法學碩士對機器學習和人工智能領域審查和出版的正面和負面影響」,並將在未來。

作者信用和問責制提供了指南和定義標準

學術出版界很快報告了對科學出版中可能濫用這些語言模型的擔憂。個人通過向 ChatGPT 詢問一系列關於有爭議或重要話題(例如,兒童接種疫苗是否會導致自閉症)以及特定出版相關的技術和倫理問題進行了實驗。他們的結果表明,ChatGPT 對問題的文本回答雖然大部分寫得很好,但卻是公式化的(不容易辨認)、不是最新的、虛假的或捏造的,沒有準確或完整的參考,更糟糕的是,捏造了不存在的索賠證據或它所做的陳述。OpenAI 承認該語言模型存在一些局限性,包括提供「看似合理但不正確或荒謬的答案」,並且最近的版本是開放迭代部署的一部分,旨在供人類使用、交互和反饋以改進它。這種謹慎的承認是一個明確的信號,表明該模型還沒有準備好用作可信信息的來源,當然也不是沒有透明度和對其使用的人為問責制。

為了解決在撰寫手稿時使用人工智能和語言模型的擔憂,JAMA和 JAMA 網絡期刊在期刊的作者須知中更新了相關政策。幾十年來,這些期刊根據國際醫學期刊編輯委員會的建議,以及透明報告寫作或編輯協助的指南,為作者信用和問責制提供了指南和定義標準。這些指南和標準不斷發展,以解決研究的行為、複雜性和報告的變化以及與作者責任和問責制相關的問題。

非人類人工智能不符合作者資格

非人類人工智能、語言模型、機器學習或類似技術不符合作者資格。如果這些模型或工具用於創建內容或協助寫作或手稿準備,作者必須對這些工俱生成的內容的完整性負責。如果這是正式研究設計或方法的一部分,作者應在致謝部分或方法部分報告使用人工智能、語言模型、機器學習或類似技術來創建內容或協助撰寫或編輯手稿。這應該包括對創建或編輯的內容的描述以及語言模型或工具的名稱、版本和擴展號以及製造商。(注意:這不包括檢查語法、拼寫、參考文獻等的基本工具。)

不鼓勵提交和發布由人工智能、語言模型、機器學習或類似技術創建的內容,除非是正式研究設計或方法的一部分,並且在沒有明確描述創建的內容和作者名稱的情況下是不允許的型號或工具、版本和擴展號以及製造商。作者必須對這些模型和工俱生成的內容的完整性負責。

保護醫學研究的可信度和完整性

JAMA 網絡期刊有報告使用統計分析軟件的相關政策,並建議作者遵循 EQUATOR 網絡報告指南,包括那些包含 AI 干預(例如 CONSORT-AI 和 SPIRIT-AI)的試驗指南和建模研究中的機器學習(例如,MI-CLAIM)。EQUATOR 網絡還有其他幾項報告指南正在開發中,用於使用人工智能和機器學習的預後和診斷研究,例如 STARD-AI 和 TRIPOD-AI。24JAMA Network 編輯將繼續審查和發展編輯和出版政策以響應這些發展,以保持最高標準的透明度和科學誠信。

人工智能語言模型等變革性、顛覆性技術為科學企業的所有參與者創造了希望和機遇,同時也帶來了風險和威脅。要求期刊對 AI 生成的內容進行篩查的呼聲可能會升級,特別是那些已成為造紙廠和其他不道德或欺詐行為目標的期刊。但隨著對進一步發展的大量投資,人工智能工具可能能夠避開任何此類屏幕。不管怎樣,人工智能技術已經存在了一段時間,將得到進一步和更快的發展,並將繼續用於研究和信息傳播的各個階段,希望以創新的進步來抵消任何危險。在這個普遍存在錯誤信息和不信任的時代,負責任地使用 AI 語言模型以及透明地報告如何使用這些工具創建信息和發布對於促進和保護醫學研究的可信度和完整性以及對醫學知識的信任至關重要。

本文僅代表作者立場,不代表本平台立場

分享文章

Facebook Comments 文章留言

- Advertisement -spot_img
特別報導
特別報導
銳傳媒資料中心

Latest news

Related news