新竹市前市長林智堅,桃園市長鄭文燦與基隆立委蔡適應,論文抄襲問題被撤銷學位。當事人莫不喊冤,這冤聲載道,似乎有點道理,因為碩士在職專班行之有年,以2003年為例,人數就達35,852人。歷年學長姐幾十上百萬人,努力讀書的固然有之,就算不是抄襲,長官找屬下代寫代抄,論文用拖拉庫是載不完的,為什麼偏偏要他們三個「浪得虛名」?
不過,抄襲風波似乎已經被「擋波牆」止息了,這「擋波牆」有個名字叫ChatGPT,以後還會有更多的「擋波勇士」出現。甚麼叫做「抄襲」?抄一個兩個人的文章,抄10個人的文章,被抓到,抄襲也。至於,抄100個、1000個、10000個人的文章,還叫抄襲嗎?恐怕只好承認它是「創作」了!
文 / 洪存正 綜合報導
克里斯·斯托克爾-沃克(Chris Stokel-Walker)在最新的《自然》(Nature)期刊上一篇,< ChatGPT 被列為研究論文的作者:許多科學家不贊成> (ChatGPT listed as author on research papers: many scientists disapprove) 至少有四篇文章將「人工智能工具」列為合著者,人工智能聊天機器人 ChatGPT 正在顛覆包括學術界在內的許多行業。
報導中指出,風靡全球的人工智能 (AI) 聊天機器人 ChatGPT 已在科學文獻中正式亮相——在已發表的論文和預印本上至少獲得了四份作者署名。
期刊編輯、研究人員和出版商現在正在爭論此類 AI 工具在已發表文獻中的位置,以及將機器人列為作者是否合適。出版商正在競相為聊天機器人制定政策,該聊天機器人於 11 月由加利福尼亞州舊金山的科技公司 OpenAI 作為免費工具發布。
人工智能機器人 ChatGPT 寫出聰明的論文——教授應該擔心嗎?
ChatGPT 是一種大型語言模型 (LLM),它通過模仿從 Internet 整理的龐大文本數據庫中的語言統計模式來生成令人信服的句子。該機器人已經在擾亂包括學術界在內的各個部門:特別是,它引發了對大學論文和研究成果的未來的質疑。
《自然》(Nature)期刊的新聞團隊聯繫的出版商和預印本服務器一致認為,ChatGPT 等 AI 不符合研究作者的標準,因為它們無法對科學論文的內容和完整性負責。但一些出版商表示,人工智能對撰寫論文的貢獻可以在作者列表以外的部分得到承認。在一個案例中,一位編輯告訴《自然》雜誌,ChatGPT 被錯誤地列為合著者,該期刊將更正這一點。
人工作者ChatGPT 是關於使用該工具進行醫學教育的預印本的12 位作者之一,該預印本於去年 12 月發佈在醫學知識庫 medRxiv 上。
該資料庫及其姊妹網站 bioRxiv 背後的團隊正在討論在撰寫研究時使用和信任 AI 工具(例如 ChatGPT)是否合適,聯合創始人、紐約冷泉港實驗室出版社助理主任 Richard Sever 說,慣例可能會改變。
「我們需要將學術手稿作者的正式角色與作者作為文檔作者的更一般概念區分開來,」Sever說,作者對他們的工作承擔法律責任,因此只應列出個人。「當然,人們可能會試圖偷偷加入——這在 medRxiv 已經發生了——就像過去人們將寵物、虛構人物等列為期刊文章的作者一樣,但這是一個檢查問題,而不是政策問題。」Victor Tseng 是預印本的通訊作者,也是加利福尼亞州山景城 Ansible Health 的醫療主管,他沒有回應置評請求。
本月發表在《護士教育實踐》雜誌上的社論將 AI 與英國曼徹斯特大學的健康技術研究員 Siobhan O’Connor 一起列為合著者。該雜誌的主編羅傑·沃森 (Roger Watson) 表示,該署名被誤漏掉了,很快就會得到更正。「那是我的疏忽,」他說,因為社論通過與研究論文不同的管理系統。
香港人工智能藥物研發公司 Insilico Medicine 的首席執行官亞歷克斯·扎沃龍科夫 (Alex Zhavoronkov) 上個月在《Oncoscience》雜誌上將 ChatGPT 列為第 3 篇觀點文章的合著者。他說,他的公司已經發表了 80 多篇由生成式 AI 工俱生成的論文。「我們對這個領域並不陌生,」他說。最新的論文在稱為帕斯卡賭注的哲學爭論的背景下討論了服用藥物雷帕黴素的利弊。Zhavoronkov 說,ChatGPT 寫的文章比前幾代生成式 AI 工具要好得多。
他說,Oncoscience 的同行在他要求編輯對這篇論文進行審閱後對其進行了審閱。該雜誌沒有回應Nature的置評請求。
第四篇文章由早期名為 GPT-3 的聊天機器人與人合著,並於 2022 年 6 月發佈在法國預印本服務器 HAL 上,該文章的合著者 Almira Osmanovic Thunström 說,該文章將很快發表在同行評審的期刊上,他是 Sahlgrenska 的神經生物學家瑞典哥德堡的大學醫院。她說,一份期刊在審查後拒絕了這篇論文,但在她根據審稿人的要求重寫了這篇文章後,另一份期刊以 GPT-3 作為作者接受了它。
《自然》(Nature)和《科學》(Science)的主編告訴《自然》的新聞團隊,ChatGPT 不符合作者身份的標準。「作者身份的歸屬伴隨著對工作的責任,這不能有效地應用於法學碩士,」倫敦《自然》雜誌主編 Magdalena Skipper 說。她說,在撰寫論文時以任何方式使用 LLM 的作者都應該在方法或致謝部分記錄它們的使用情況(如果合適的話)。
「我們不允許 AI 被列為我們發表的論文的作者,並且在沒有適當引用的情況下使用 AI 生成的文本可能被視為剽竊,」科學系列期刊的主編 Holden Thorp 說。華盛頓特區。
倫敦的出版商 Taylor & Francis 正在審查其政策,出版道德與誠信總監 Sabina Alam 說。她同意作者對其作品的有效性和完整性負責,並應在致謝部分引用 LLM 的任何使用。Taylor & Francis 尚未收到任何將 ChatGPT 列為合著者的投稿。
物理科學預印本服務器 arXiv 的董事會已經進行了內部討論,並開始匯聚一種使用生成 AI 的方法,賓夕法尼亞州立大學大學公園分校的天文學家、科學主任 Steinn Sigurdsson 說。他同意軟件工具不能成為提交的作者,部分原因是它不能同意使用條款和分發內容的權利。Sigurdsson 並不知道有任何 arXiv 預印本將 ChatGPT 列為合著者,並表示作者指南即將推出。
倫敦英國研究誠信辦公室的研究誠信經理 Matt Hodgkinson 以個人身份表示,已經有明確的作者身份指南,這意味著 ChatGPT 不應被視為合著者。他說,其中一條準則是合著者需要對文章做出「重大學術貢獻」——這可能通過 ChatGPT 等工具實現。但它也必須有能力同意成為合著者,並為一項研究承擔責任——或者,至少,它所貢獻的部分。「這真的是第二部分,給予人工智能工具共同作者的想法真正遇到了障礙,」他說。
Zhavoronkov 說,當他試圖讓 ChatGPT 撰寫比他發表的觀點更具技術性的論文時,它失敗了。「它確實經常返回不一定正確的陳述,如果你多次問同一個問題,它會給你不同的答案,」他說。「所以我肯定會擔心學術界濫用該系統,因為現在,沒有領域專業知識的人也可以嘗試撰寫科學論文。」
本文僅代表作者立場,不代表本平台立場
Facebook Comments 文章留言