Mordechai Rorvig最新發表在《科學美國人》的一篇<人工智能越來越強大。但研究人員能否使其有原則性?>(AI Is Getting Powerful. But Can Researchers Make It Principled?),也就是說,研究人員能否創建當今合乎道德且在未來是安全?(Can researchers create AI algorithms that are ethical today—and will be safe in the future?) Mordechai Rorvig是一名自由科學作家,他的作品曾出現在包括天文學、逆向、鸚鵡螺、新科學家、物理學、量子、對稱、副和連線在內的媒體上。
文 / 于思 綜合報導
艾倫·圖靈 (Alan Turing) 於 1936 年開始研究計算機科學後不久,就開始思考人類是否有朝一日能夠製造出與人類智能相當的機器。人工智能,這個關注這個問題的現代領域,從那時起已經走了很長一段路。但能夠獨立完成許多不同任務的真正智能機器尚未發明。儘管科幻小說長期以來一直想像人工智能有一天會採取惡意形式,例如不道德的機器人或兇殘的終結者,但今天的人工智能研究人員往往更擔心已經融入我們生活的日常人工智能運算,以及已經與我們的生活相關的問題他們。
人工智能變得越強大,它必須安全可靠
儘管今天的人工智能只能自動執行某些特定任務,但它已經引起了人們的極大關注。在過去十年中,工程師、學者和記者多次記錄了由軟件和計算組成的人工智能系統對人類造成或促成嚴重傷害的案例。刑事司法系統中使用的計算可能會不公平地建議拒絕假釋。社交媒體提要可以將有毒內容引向弱勢青少年。人工智能製導的軍用無人機可以在沒有任何道德推理的情況下殺人。此外,人工智能計算往往更像是一個高深莫測的黑匣子而不是發條機制。研究人員通常無法理解這些基於涉及數十億次計算的不透明方程式的計算是如何實現其結果的。
人工智能的問題並沒有被忽視,學術研究人員正在努力使這些系統更安全、更合乎道德。構建以 AI 為中心的產品的公司正在努力消除危害,儘管他們往往對他們的努力提供很少的透明度。「他們並不是很樂意,」加州大學伯克利分校的人工智能研究員 Jonathan Stray 說。AI 的已知危險及其潛在的未來風險已成為新 AI 研究的廣泛驅動力。即使是專注於人工智能計算效率等更抽象問題的科學家也不能再忽視其領域的社會影響。「人工智能變得越強大,人們就越需要它必須安全可靠,」香港科技大學人工智能研究員 Pascale Fung 說。「在大多數情況下,
將有毒內容引導給兒童並導致心理健康問題
隨著人工智能的廣泛應用,人們的擔憂也在增加。例如,在 2010 年代中期,一些網絡搜索和社交媒體公司開始將 AI 計算嵌入到他們的產品中。他們發現他們可以創建計算來預測哪些用戶更有可能點擊哪些廣告,從而增加他們的利潤。通過顯著改進「訓練」這些計算,計算技術的進步使這一切成為可能——使它們從示例中學習以實現高性能。但隨著人工智能穩步進入搜索引擎和其他應用程序,觀察者開始注意到問題並提出問題。2016 年,調查記者聲稱假釋評估中使用的某些計算存在種族偏見。
該報告的結論受到質疑,但設計公平、公正的人工智能現在被人工智能研究人員視為一個核心問題。每當部署 AI 來預測來自不同人口統計數據的人時,就會出現擔憂。隨著 AI 嵌入到越來越多的決策過程中,例如篩選工作簡歷或評估公寓的租戶申請,公平現在已成為人們更加關注的焦點。
在過去幾年中,人工智能在社交媒體應用中的使用已成為另一個問題。其中許多應用程序使用稱為推薦引擎的 AI 計算,其工作方式與廣告服務計算類似,以決定向用戶展示哪些內容。數百個家庭目前正在起訴社交媒體公司,指控其計算驅動的應用程序將有毒內容引導給兒童並導致心理健康問題。西雅圖公立學校最近提起訴訟聲稱社交媒體產品具有成癮性和剝削性。但弄清計算的真正影響並非易事。社交媒體平台發布的用戶活動數據很少,獨立研究人員需要這些數據進行評估。「所有技術的複雜之處之一就是總是有成本和收益,」Stray 說,他的研究重點是推薦系統。「我們現在所處的境地很難知道實際的不良影響是什麼。」
放大煽動暴力的內容,「極大地造成了不利的人權影響」
人工智能問題的性質也在發生變化。在過去的兩年中,已經發布了多種可以生成質量卓越的文本和圖像的「生成式 AI」產品。現在越來越多的 AI 研究人員認為,強大的未來 AI 系統可以建立在這些成就的基礎上,並且有一天會帶來全球性的災難性危險,與當前的問題相比,這些危險可能顯得蒼白無力。
此類未來威脅可能採取何種形式?在 10 月份發佈在預印本存儲庫 arXiv.org 上的一篇論文中,DeepMind(谷歌母公司 Alphabet 的子公司)的研究人員描述了一個災難性的場景。他們想像工程師根據現有的科學原理開發代碼生成人工智能,並負責讓人類編碼員將其提交的代碼應用於他們的編碼項目。這個想法是,隨著人工智能提交越來越多的提交,有些被拒絕,人類的反饋將幫助它學會更好地編碼。但研究人員表示,這種人工智能的唯一指令是讓其代碼被採用,它可能會制定出一種悲慘的不合理策略,例如以顛覆人類文明為代價實現世界統治並強制採用其代碼。
一些科學家認為,對已經具體且眾多的現有問題的研究應該優先於涉及假設的未來災難的工作。「我認為我們今天遇到的問題要嚴重得多,」杜克大學的計算機科學家和人工智能研究員辛西婭魯丁說。加強這種情況的事實是,人工智能尚未直接造成任何大規模災難——儘管有一些有爭議的例子,在這些例子中,該技術不需要達到未來的能力水平就會變得危險。例如,非營利性人權組織大赦國際在去年 9 月發表的一份報告中稱由 Facebook 的母公司 Meta 開發的計算通過放大煽動暴力的內容,對緬甸的少數穆斯林群體羅興亞人「極大地造成了不利的人權影響」。Meta 回應了《科學美國人》的評論請求,引用了Meta 亞太區公共政策總監 Rafael Frankel 之前向時代雜誌發表的聲明,他承認緬甸軍方對羅興亞人犯下罪行,並表示 Meta 目前正在參與政府間聯合國和其他組織領導的調查工作。
我們的實際選擇是我們價值觀的函數和我們的知識
其他研究人員表示,防止強大的未來人工智能系統引發全球性災難已經是一個主要問題。「對我來說,這是我們需要解決的首要問題,」OpenAI 公司的人工智能研究員 Jan Leike 說。儘管這些危害到目前為止完全是推測性的,但它們無疑正在推動越來越多的研究人員研究各種減少危害的策略。
在加州大學伯克利分校人工智能科學家 Stuart Russell 首創的一種稱為價值對齊的方法中,研究人員尋求訓練人工智能系統學習人類價值觀並根據這些價值觀行事的方法。這種方法的優點之一是它可以在未來的系統出現災難性危險之前開發並應用到它們中。批評人士說,當人工智能安全還有許多其他要求時,價值一致性過於狹隘地關注人類價值觀。例如,與人類一樣,經過驗證的事實知識基礎對於人工智能系統做出正確決策至關重要。「問題不在於人工智能有錯誤的價值觀,」艾倫人工智能研究所的研究員 Oren Etzioni 說。「事實是我們的實際選擇是我們價值觀的函數和我們的知識。」 考慮到這些批評,其他研究人員正在努力開發一種更通用的人工智能對齊理論,以確保未來系統的安全,而不是狹隘地關注人類價值觀。
ChatGPT等都可以生成帶有種族偏見、非法或欺騙性的內容
一些科學家正在採取他們認為更實用、更貼近當下的 AI 調整方法。考慮一下文本生成技術的最新進展:領先的例子,例如 DeepMind 的Chinchilla、Google Research 的PaLM、Meta AI 的OPT和 OpenAI 的ChatGPT,都可以生成帶有種族偏見、非法或欺騙性的內容——這些公司都承認這是一個挑戰. 其中一些公司,包括 OpenAI 和 DeepMind,認為此類問題是對齊不充分的問題。他們現在正致力於改進文本生成 AI 的對齊方式,並希望這將為對齊未來系統提供見解。
研究人員承認,人工智能對齊的一般理論仍然不存在。「對於如何調整比人類聰明得多的系統,我們並沒有真正的答案,」雷克說。但無論人工智能最糟糕的問題是過去、現在還是未來,至少解決這些問題的最大障礙不再是缺乏嘗試。
本文僅代表作者立場,不代表本平台立場
Facebook Comments 文章留言