文/ 歐陽永叔
使用生成式人工智慧創建的欺騙性影片和圖像可能會影響選舉、股市崩盤並毀掉聲譽。研究人員正在開發限制其危害的方法。尼古拉瓊斯(Nicola Jones)發表在最新一期《自然》(Nature)的<如何阻止人工智慧深度造假讓社會和科學陷入困境>( How to stop AI deepfakes from sinking society — and science)
川普擁抱他的前醫療顧問安東尼·福奇?
今年 6 月,在 2024 年美國總統初選的政治鬥爭中,發布了一系列照片,顯示唐納德·川普擁抱他的前醫療顧問之一安東尼·福奇。在一些鏡頭中,川普尷尬地親吻了福奇的臉,福奇是一名衛生官員,因在 COVID-19 大流行期間提倡佩戴口罩和疫苗而受到一些美國保守派的謾罵。
加州大學柏克萊分校的電腦科學家哈尼法里德(Hany Farid)是檢查這些圖片的眾多專家之一,他說,「很明顯」它們是贗品。仔細觀察其中三張照片,川普的頭髮奇怪地模糊,背景中的文字毫無意義,手臂和手的位置不自然,川普可見耳朵的細節也不正確。目前,所有這些都是產生人工智慧(AI)(也稱為合成人工智慧)的標誌。
偽造!就像「轟」的一聲,突然就到了
這種由「深度學習」人工智慧驅動的文本到圖像生成器製作的深度偽造圖像和視頻現在很普遍。儘管欺詐者長期以來一直利用欺騙手段來牟利、影響輿論或發動戰爭,但現在製造和傳播大量令人信服的假貨的速度和輕鬆程度——再加上公眾意識的缺乏——正在成為一個日益嚴重的威脅。「人們不習慣生成技術。它並不是逐漸進化的;而是逐漸進化的。就像「轟」的一聲,突然就到了。所以,你不需要有那種程度的懷疑,」北卡羅來納州達勒姆杜克大學的人工智慧電腦科學家辛西婭·魯丁 (Cynthia Rudin) 說。
現在,不熟練的用戶可以使用數十種系統為任何目的生成幾乎任何內容,無論是在 Tik Tok 上創建深度偽造的湯姆克魯斯視頻以供娛樂;恢復校園槍擊受害者的肖像,製作倡導槍枝管制的影片;或偽造親人的求救電話,騙受害者數萬美元。Deepfake 視訊可在即時視訊通話中即時產生。今年早些時候,聯準會主席鮑威爾與他認為是烏克蘭總統弗拉基米爾·澤連斯基的人進行了視訊對話,但事實並非如此。
我們一直在推薦和傳播這些垃圾。現在我們將製造垃圾
人工智慧生成的內容數量尚不清楚,但據信正在爆炸式增長。學者們普遍引用的一項估計是,大約 90% 的網路內容可以在幾年內合成。魯丁說:「其他一切都會被這種噪音淹沒。」這會讓你很難找到真正有用的內容。她補充道,搜尋引擎和社群媒體只會放大錯誤訊息。「我們一直在推薦和傳播這些垃圾。現在我們將製造垃圾。」
儘管許多合成媒體是為了娛樂和樂趣而製作的,例如教皇教皇穿著名牌羽絨服的病毒形象,但有些是出於議程驅動,有些是惡意的——包括大量未經同意的色情內容,其中某人的臉轉移到另一個身體。即使是單一合成檔案也能引起轟動:例如,一張由人工智慧生成的美國五角大廈爆炸影像在 5 月瘋傳,導致股市短暫下跌。合成內容的存在也使得不良行為者可以透過簡單地聲稱它是假的來忽略不當行為的真實證據。
人工智慧產生的假貨也可能對科學產生巨大影響
「人們真正知道應該信任哪裡的能力正在下降。這對民主來說是一個真正的問題。」英國蘭卡斯特大學心理學家索菲·南丁格爾(Sophie Nightingale)說道,她研究生成式人工智慧的影響。「我們需要盡快採取行動。這已經是一個巨大的威脅了。」 她補充說,這個問題將在未來一兩年成為一個大問題,美國、俄羅斯和英國計劃舉行重大選舉。
一些專家表示,人工智慧產生的假貨也可能對科學產生巨大影響。他們擔心,生成式人工智慧系統的快速發展能力可能會讓不道德的研究人員更容易發布欺詐性資料和圖像。
目前,一些合成內容包含洩漏線索,例如人物一隻手有六個手指的圖像。但生成式人工智慧每天都在進步。洛杉磯南加州大學資訊科學家兼電腦工程師 Wael Abd-Almageed 表示,「我們正在談論幾個月」,直到人們無法用肉眼辨別差異。
它被用來創建沒有隱私問題的醫療數據集
這一切都讓研究人員爭先恐後地研究如何利用人工智慧的深度造假能力來做好事,同時開發工具來防範壞事。技術防禦有兩個面向:在產生真實或虛假內容時主動標記內容;並在出版後使用探測器來發現假貨。賓州州立大學大學公園分校媒體效果研究實驗室創辦人兼心理學家希亞姆‧桑達爾(Shyam Sundar) 表示,這兩種方法都不是完美的解決方案,但都有助於為造假行為增加障礙。「如果你是一個專注的惡意行為者,你肯定可以走得很遠。這個想法是為了給他們製造困難,」他說。
南丁格爾表示,技術在短期內至關重要,但「從長遠來看,也許我們可以更多地考慮教育和監管。」 歐盟的《人工智慧法案》在全球處於領先地位,該法案於今年 6 月在議會獲得通過,目前正在等待歐盟政府其他兩個部門的決定。「我們肯定會從中吸取重要的教訓,」南丁格爾說,「無論他們做對了還是錯了。」
對研究人員來說,生成式人工智慧是一個強大的工具。例如,它被用來創建沒有隱私問題的醫療數據集、幫助設計藥物分子以及改進科學手稿和軟體。Deepfakes 正在被調查用於匿名化基於視訊的團體治療的參與者;創建對觀眾更有吸引力的醫生或教師的自訂頭像;或允許改善社會科學研究中的控制條件。「我更多的是希望而不是擔憂,」桑達爾說。「我認為它作為一項技術具有變革性。」
人工智慧與科學:1,600 位研究人員的想法
但由於擔心濫用行為猖獗,研究人員和倫理學家試圖為人工智慧制定規則,包括 2018 年《人工智慧負責任發展蒙特利爾宣言》和經濟合作暨發展組織2019 年《人工智慧建議書》。一項名為「人工智慧夥伴關係」的倡議是一個包括主要行業合作夥伴的非營利組織,旨在促進有關最佳實踐的對話——儘管一些觀察家和參與者質疑它是否產生了任何影響。
所有人都提倡透明度和揭露合成內容的原則。該公司正在關注這一點:例如,今年 3 月,TikTok 更新了社群指南,強制創作者披露在任何逼真場景中使用人工智慧的情況。今年 7 月,包括 Meta、微軟、Google、OpenAI 和亞馬遜在內的七家領先科技公司自願向白宮承諾標記其人工智慧產生的內容。9 月,Google宣布,從 11 月中旬開始,政治廣告中使用的任何人工智慧生成的內容都必須在其平台上聲明,包括 YouTube。
本文僅代表作者立場,不代表本平台立場
Facebook Comments 文章留言