- Advertisement -spot_img
21.4 C
Taiwan
2024 年 6 月 13 日
spot_img

【劉伯倫專欄】中國第一個使用衛星監測保護自然

中國政府是第一個使用衛星監測預留保護土地以確保其免受非法開發的國家。科學...

【韓退之專欄】科學界的假論文問題有多嚴重?

台灣從蔡英文被指「假博士」,直到陳明通在台大指導林智堅論文抄襲案以來,一...

【于思專欄】指紋複雜的圖案在胎中就形成了

海蒂萊德福德(Heidi Ledford)在《自然》(Nature)發表...

【稽叔夜專欄】2024 年值得關注的科學事件

米里亞姆·納達夫 Miryam Naddaf發表在最新一期《自然》(Na...
-Advertisement-spot_img

GPT編造事情的傾向,無法管束

- Advertisement -spot_imgspot_img
- Advertisement -spot_img

參議院隱私、技術和法律司法小組委員會的成員開會討論「人工智能監管:人工智能規則」。與在希爾舉行的其他技術聽證會一樣,這次聽證會是在一項能夠從根本上改變我們的社會和政治生活的新技術已經在流通之後舉行的。蘇哈爾彭(Sue Halpern)<國會真的想監管人工智能,但似乎沒人知道如何做>(Congress Really Wants to Regulate A.I., But No One Seems to Know How)告訴我們,大家都赫然發現GPT有編造事情的傾向,但無法管束。

文 / 阮始平 綜合報導

GPT 以對話方式回答問題,有編造事情的傾向

2019 年 2 月,鮮為人知的人工智能公司 OpenAI宣布其大型語言模型文本生成器 GPT-2 不會向公眾發布,「因為我們擔心該技術的惡意應用。」 該公司表示,其中的危險包括誤導性新聞文章、在線冒充以及自動生成濫用或偽造的社交媒體內容以及垃圾郵件和網絡釣魚內容的可能性。因此,Open AI 提議「政府應考慮擴大或啟動舉措,以更系統地監測人工智能技術的社會影響和傳播,並衡量此類系統能力的進步。」

像許多美國人一樣,立法者在 3 月份開始關注大型語言模型人工智能的陷阱,當時 OpenAI 發布了最新、最完善的GPT-4其文本生成器的迭代。與此同時,該公司將其添加到其於 11 月推出的聊天機器人中,該機器人使用 GPT 以對話方式回答問題,而且這種自信並不總是有保證的,因為 GPT 有編造事情的傾向。

ChatGPT 成為歷史上增長最快的消費者應用程序

儘管存在這種不穩定性,但在兩個月內,ChatGPT 成為歷史上增長最快的消費者應用程序,到今年年初每月用戶達到一億。它每月的頁面訪問量超過 10 億次。OpenAI 還發布了dall-e,這是一種圖像生成器,可以根據描述性的口頭提示創建原始圖片。與 GPT 一樣,dall-e和其他文本轉圖像工具有可能模糊現實與發明之間的界限,這一前景會增加我們對欺騙的敏感性。最近,共和黨發布了第一個完全由人工智能生成的攻擊廣告;它展示了拜登政府第二任期中看似真實的反烏托邦形象。

參議院聽證會由三位專家組成:OpenAI 首席執行官Sam Altman ;IBM 首席隱私與信任官克里斯蒂娜·蒙哥馬利 (Christina Montgomery);紐約大學名譽教授、人工智能企業家加里·馬庫斯 (Gary Marcus)。但最受關注的還是奧特曼。這是公司的負責人,擁有最熱門的科技產品——它有可能顛覆商業運作方式、學生學習方式、藝術創作方式以及人機交互方式——他告訴參議員們的是「OpenAI 認為對 AI 的監管至關重要。」 他在準備好的證詞中寫道,他渴望「幫助決策者確定如何促進平衡激勵安全的監管,同時確保人們能夠獲得該技術的好處。」

Facebook 每年向說客支付數百萬美元以避開政府監管

伊利諾伊州參議員 Dick Durbin 稱聽證會是「歷史性的」,因為他不記得有高管來到立法者面前「懇求」他們監管他們的產品——但事實上,這並不是科技公司首席執行官第一次曾坐在國會聽證室,呼籲加強監管。最值得注意的是,在 2018 年劍橋分析醜聞之後——當時 Facebook 允許這家與川普結盟的政治諮詢公司在他們不知情的情況下訪問近 9000 萬用戶的個人信息——Facebook 首席執行官馬克扎克伯格告訴一些參議員表示他願意接受更多的政府監督,明年他在華盛頓郵報上重申了這一立場,「我認為我們需要政府和監管機構發揮更積極的作用。」 (與此同時,Facebook 每年向說客支付數百萬美元以避開政府監管。)

與扎克伯格一樣,奧特曼在呼籲加強監管之前解釋了他的公司已經採用的防護措施,例如訓練其模型以拒絕某些類型的「反社會」查詢——就像我最近向 ChatGPT 提出的那樣,當我問它編寫代碼以 3D 打印格洛克。(然而,它確實為 3D 打印的彈弓編寫了腳本。「我想強調的是,應該以負責任和合法的方式創建和使用該設備,」它在輸出代碼之前說。 ) OpenAI的使用政策除其他事項外,還禁止人們使用其模型創建惡意軟件、生成兒童性虐待圖像、剽竊或製作政治競選材料,但目前尚不清楚該公司計劃如何執行這些規定。「如果我們發現你的產品或使用不符合這些政策,我們可能會要求你做出必要的改變,」政策聲明,基本上承認,在許多情況下,OpenAI 將在違規發生後採取行動,而不是阻止它。

權力進一步集中在少數人手中

在聽證會的開場白中,小組委員會主席、來自康涅狄格州的參議員理查德·布盧門撒爾 (Richard Blumenthal) 毫不留情。「人工智能公司應該被要求測試他們的系統,披露已知的風險,並允許獨立研究人員訪問,」他說。而且,他補充說,「當人工智能公司及其客戶造成傷害時,他們應該承擔責任。」 為了證明他關於傷害的觀點,Blumenthal 用一段他自己談到監管必要性的錄音來介紹他的言論,但他從未真正說過這些話。「他的」聲音和「他的」陳述都是由人工智能製造的。其影響,尤其是對房間裡的政治家而言,令人不寒而慄。

弄清楚如何評估危害或確定責任可能與弄清楚如何監管一項發展如此之快以致於無意中破壞其發展道路上的一切的技術一樣棘手。奧爾特曼在他的證詞中提出了國會創建一個新的政府機構的想法,該機構的任務是授權他所謂的「強大」人工智能模型(儘管目前尚不清楚該詞在實踐中將如何定義)。雖然從表面上看這不是一個壞主意,但它有可能成為一種自私自利的想法。正如 AI 創業公司 Hugging Face 的首席執行官 Clem Delangue 在推特上所說,「需要許可證才能訓練模型。. . 權力進一步集中在少數人手中。」 就 OpenAI 而言,它已經能夠在沒有政府監督或其他監管障礙的情況下開發其大型語言模型,這將使該公司遠遠領先於其競爭對手,並鞏固其最先通過的地位,同時限制更新的領域的參賽者。

進一步侵蝕信息和思想的自由流動

如果發生這種情況,它不僅會給 OpenAI 和微軟(在其許多產品中使用 GPT-4,包括其 Bing 搜索引擎)等公司帶來經濟優勢,而且可能進一步侵蝕信息和思想的自由流動。教授兼 AI 企業家加里·馬庫斯 (Gary Marcus) 告訴參議員們,「存在一種技術官僚政治與寡頭政治相結合的真正風險,少數公司會影響人們的信仰」,並且「用我們甚至不了解的數據來做到這一點」知道關於。」 他指的是 OpenAI 和其他公司對他們的大型語言模型訓練的數據保密,因此無法確定他們固有的偏見或真正評估他們的安全性。

密蘇里州參議員 Josh Hawley 指出,ChatGPT 等 LLM 最緊迫的危險是它們操縱選民的能力。「這是我最關心的領域之一,」奧特曼告訴他。「這些模型更普遍的能力是操縱、說服、提供某種一對一的、交互式的虛假信息,」他說,「鑑於我們明年將面臨選舉,這些模型正在好轉,我認為這是一個值得關注的重要領域。」

OpenAI 會帶頭將其 LLM 從市場上撤下嗎?

消除這種擔憂的最權宜之計是 OpenAI 帶頭將其 LLM 從市場上撤下,直到他們不再有能力操縱選民、傳播錯誤信息或以任何其他方式破壞民主進程。用德賓參議員的話來說,這確實是「歷史性的」。但這在聽證會上並沒有提供。相反,大部分討論都集中在可以創建什麼樣的監管機構(如果有的話),誰應該在其中任職,以及是否有可能使這樣的機構國際化。這是一個引人入勝的未來練習,忽略了當前的危險。布盧門撒爾參議員告訴他的同事們,「國會現在可以做出選擇。當我們面對社交媒體時,我們有同樣的選擇。我們沒能抓住那一刻。」 隨著選舉的臨近和這項技術的發揮,人們不需要人工智能的預測能力就可以認識到,立法者儘管充滿好奇心和兩黨禮讓,但也錯過了這一時刻。

本文僅代表作者立場,不代表本平台立場

分享文章

Facebook Comments 文章留言

- Advertisement -spot_img
特別報導
特別報導
銳傳媒資料中心

Latest news

Related news