- Advertisement -spot_img
23.2 C
Taiwan
2024 年 6 月 13 日
spot_img

2023-2024 FIRST機器人大賽台灣選拔賽...

記者邵敏/高雄報導 一年一度機器人盛大賽事 「2023-2024 FI...

2023年最受矚目的科學議題

《科學》(Science)期刊選出,11 個科學議題,它們將在 2023...

【阮嗣宗專欄】拿破崙多矮?揭秘矮個子男性受歧視的歷...

你賺多少錢?你的配偶有多令人嚮往?你是如何被感知的?您的身高可能會在所有...

【王半山專欄】糖尿病、狼瘡和多發性硬化症可治癒嗎?...

早在 2001 年,免疫學家 Pere Santamaria 就正在探索...
-Advertisement-spot_img

【歐陽永叔專欄】不要神化了人工智能!

- Advertisement -spot_imgspot_img
- Advertisement -spot_img

杰倫·拉尼爾(Jaron Lanier)在《紐約客》(New Yorker)發表的一篇<沒有人工智能There Is No A.I>告訴大家:「有一些方法可以控制新技術——但首先我們必須停止神話化它。」(There are ways of controlling the new technology—but first we have to stop mythologizing it.)。他說:「作為一名計算機科學家,我不喜歡『AI』這個詞。事實上,我認為它具有誤導性——甚至可能有點危險。每個人都已經在使用這個詞了,現在爭論它似乎有點晚了。但我們正處於一個新的技術時代的開端——對技術管理不善的最簡單方法就是誤解它。」

文 / 歐陽永叔 導讀

「人工智能」一詞有著悠久的歷史——它是在 19 世紀 50 年代,即計算機出現的早期階段創造出來的。最近,計算機科學家是在「終結者」和「黑客帝國」等電影以及「星際迷航:下一代」中的指揮官數據等角色中成長起來的。這些文化試金石已經成為科技文化中近乎宗教的神話。計算機科學家渴望創造人工智能並實現長期以來的夢想是很自然的。

加速進步將飛過我們,我們將無法想像正在發生的事情?

然而,令人吃驚的是,許多追求 AI 夢想的人也擔心這可能意味著人類的世界末日。人們廣泛表示,即使是當今努力的核心科學家,人工智能研究人員正在做的事情可能會導致我們物種的滅絕,或者至少對人類造成巨大傷害,而且很快。在最近的一項民意調查中,一半的 AI 科學家同意,人類至少有 10% 的可能性會被 AI 毀滅,他說:「甚至我的同事兼朋友 Sam Altman(負責 OpenAI)也發表了類似的評論. 走進矽谷的任何一家咖啡店,你都會聽到同樣的爭論展開:一個人說新代碼只是代碼,人們在負責,但另一個人則認為持有這種觀點的人只是不了解新代碼的深遠意義泰克群島 這些論點並不完全合理:當我讓我最可怕的科學家朋友們詳細說明 AI 世界末日可能如何發生時,他們往往會從超越試圖構想無限的人的癱瘓中解脫出來。他們說諸如「加速進步將飛過我們,我們將無法想像正在發生的事情」之類的話。」

將人工智能視為一種工具,而不是一種生物

Jaron Lanier說:「我不同意這種說話方式。我的許多朋友和同事對他們使用最新的大型模型(如GPT-4)的體驗印象深刻,並且幾乎在守夜等待更深層次智能的出現。我的立場不是他們錯了,而是我們不能確定;我們保留以不同方式對軟件進行分類的選項。」

「最務實的立場是將人工智能視為一種工具,而不是一種生物。我的態度並沒有消除危險的可能性:無論我們怎麼想,我們仍然可以糟糕地設計和操作我們的新技術,以可能傷害我們甚至導致我們滅絕的方式。將技術神話化只會讓我們更有可能無法很好地操作它——這種思維限制了我們的想像力,將它們束縛在昨日的夢想中。我們可以在沒有人工智能這樣的東西的假設下更好地工作 我們越早理解這一點,我們就會越早開始智能地管理我們的新技術。」

視人工智能為一種創新的社會協作形式

如果新技術不是真正的人工智能,那它是什麼?在我看來,理解我們今天正在建設的東西的最準確方法是將其視為一種創新的社會協作形式。OpenAI 的 GPT-4 之類的程序可以按順序編寫句子,類似於維基百科的一個版本,其中包含更多數據,並使用統計數據將其融合在一起。按訂單創建圖像的程序有點像在線圖像搜索的一個版本,但有一個組合圖片的系統。在這兩種情況下,都是人編寫了文本並提供了圖像。新程序融合了人類思維所做的工作。創新之處在於混搭過程變得有指導性和約束性,因此結果是可用的並且常常是引人注目的。這是一項重大成就,值得慶祝——但它可以被認為是闡明了人類創造物之間先前隱藏的一致性,而不是一種新思想的發明。

Jaron Lanier指出:「據我所知,我的觀點讚揚這項技術。畢竟,文明不就是社會協作嗎?將 AI 視為一種協作方式,而不是一種創造獨立、智能生物的技術,可能會使其不那麼神秘——不像hal 9000 或 Commander Data。但這很好,因為神秘只會增加管理不善的可能性。」

很容易將智能歸功於新系統;它們具有靈活性和不可預測性,我們通常不會將其與計算機技術聯繫起來。但這種靈活性來自於簡單的數學。像 GPT-4 這樣的大型語言模型包含一個累積記錄,記錄特定單詞在程序處理的大量文本中是如何重合的。這個龐大的表格導致系統本質上近似許多語法模式,以及可能被稱為作者風格的方面。當您輸入由特定順序的特定單詞組成的查詢時,您的輸入與模型中的內容相關;由於關聯數十億條目的複雜性,每次的結果都可能略有不同。

必須要求暫停最雄心勃勃的 AI 開發嗎?

他說,這個過程的非重複性可以讓它感覺很生動。從某種意義上說,它可以使新系統更加以人為本。當你用 AI 工具合成一張新圖像時,你可能會得到一堆類似的選項,然後必須從中進行選擇;如果你是一名使用法學碩士來作弊的學生,你可能會閱讀模型生成的選項並選擇一個。不重複的技術需要一點人為選擇。

Jaron Lanier說:「我喜歡的人工智能的許多用途都基於我們在計算機變得不那麼僵化時獲得的優勢。我們所知道的數字產品具有脆弱的特性,迫使人們順應它,而不是評估它。我們都忍受過在醫生辦公室裡看著一些可憐的人努力在前台屏幕上做預期的事情的痛苦。臉扭曲;人性遭到破壞。符合數字設計的需要創造了一種對人類服從的環境期望。人工智能的一個積極方面是,如果我們使用得當,它可能會結束這種折磨。我們現在可以想像一個網站,它可以為色盲的人即時重新制定自己的格式,或者一個網站可以根據某人的特定認知能力和風格定制自己。像我這樣的人文主義者希望人們有更多的控制權,而不是被技術過度影響或引導。靈活性可能會給我們一些代理權。」

「儘管如此,儘管有這些可能的好處,我們還是有理由擔心新技術會以我們不喜歡或不理解的方式推動我們。最近,我的一些朋友散發了一份請願書,要求暫停最雄心勃勃的 AI 開發。當時的想法是,我們將在暫停期間制定政策。請願書是由我們社區中的一些人簽署的,但沒有其他人簽署。我發現這個概念太模糊了——什麼程度的進展意味著暫停可以結束?每週,我都會收到來自組織的新的但總是模糊的使命聲明,這些組織試圖啟動制定人工智能政策的流程。」

試圖智取鬼鬼祟祟的精靈一樣

Jaron Lanier表示:「這些努力是出於好意,但對我來說似乎毫無希望。多年來,我一直致力於歐盟的隱私政策,我開始意識到我們不知道什麼是隱私。這是我們每天都在使用的一個術語,它在上下文中可以理解,但我們不能很好地確定它以進行概括。我們對隱私的定義最接近的可能是「獨處的權利」,但在我們不斷依賴數字服務的時代,這似乎很古怪。在人工智能的背景下,「不被計算操縱的權利」似乎幾乎是正確的,但並沒有說出我們想要的一切。」他說,人工智能政策對話被諸如「對齊」(人工智能「想要」的東西與人類想要的東西對齊嗎?)、「安全」(我們能預見會阻止壞人工智能的護欄嗎?)和「公平」(我們能否阻止程序可能以各種方式不喜歡某些人?)。社區通過追求這些想法當然取得了很大的成就,但這並沒有平息我們的恐懼。我們最終會激勵人們試圖規避我們設置的模糊保護措施。儘管保護措施確實有幫助,但整個事情變成了一場遊戲——就像試圖智取鬼鬼祟祟的精靈一樣。結果是 AI 研究社區發出了警告,即他們的創造可能仍會很快殺死全人類,同時提出更加緊迫但浮誇、慎重的進程。

真正的人類作者將獲得全額報酬

Jaron Lanier說:「最近,我嘗試了一個非正式的實驗,打電話給同事,詢問他們是否有任何我們似乎都同意的具體內容。我發現有一個協議的基礎。我們似乎都同意深度造假——虛假但看似真實的圖像、視頻等——應該由創建它們的程序標記為深度造假。來自人造人的通信,以及旨在操縱人類思維或行為的自動化交互,也應該被貼上標籤。我們還同意,這些標籤應該與可以採取的行動一起出現。人們應該能夠理解他們所看到的,並且應該有合理的選擇作為回報。」

「這一切如何做到?我發現,人們幾乎一致認為,我們當前 AI 工具的黑盒性質必須結束。系統必須更加透明。我們需要更好地說明它們內部發生的事情以及原因。這並不容易。問題是我們正在談論的大型人工智能係統並不是由明確的想法構成的。沒有明確表示系統「想要什麼」,也沒有標記它何時在做特定的事情,比如操縱一個人。只有巨大的果凍海洋——巨大的數學混合。一個作家權利組織提議,當在編劇過程中使用 GPT 等工具時,真正的人類作者將獲得全額報酬;畢竟,該系統是在藉鑑真人製作的腳本。但是當我們使用 AI 來製作電影剪輯,甚至可能是整部電影時,不一定會有編劇階段。製作的電影可能看起來有劇本、配樂等,但它是作為一個整體存在的。類似地,在從插圖 AI 生成繪畫之前沒有草圖 試圖通過讓系統吐出其他不必要的項目(如腳本、草圖或意圖)來打開黑匣子將涉及構建另一個黑匣子來解釋第一個 – 無限回歸.」

我貢獻的這個概念發展,通常被稱為「數據尊嚴」

同時,大型車型的內部也不一定是無人跡可尋的荒野。從正式的、計算的角度來看,我們可能不知道「想法」是什麼,但可能存在不是由想法而是由人組成的軌跡。在過去的某個時候,一個真人創建了一個插圖作為數據輸入到模型中,並結合其他人的貢獻,將其轉化為一個新圖像。大模型人工智能是由人組成的——打開黑匣子的方法就是揭示他們。

Jaron Lanier說:「我貢獻的這個概念發展,通常被稱為「數據尊嚴」。在大型「人工智能」興起之前很久,它就出現了,作為人們免費提供數據以換取互聯網搜索或社交網絡等免費服務的熟悉安排的替代方案。數據尊嚴有時被稱為「數據即勞動」或「多元研究」。事實證明,熟悉的安排也有陰暗面:由於「網絡效應」,一些平台接管,淘汰了當地報紙等較小的參與者。更糟糕的是,由於即時在線體驗應該是免費的,因此剩下的唯一業務就是影響力的兜售。用戶體驗的似乎是社群主義的天堂,但他們卻成為隱秘和令人上癮的算法的目標,這些算法使人們變得虛榮、易怒和偏執。」

「在一個擁有數據尊嚴的世界中,數字內容通常會與希望因製作它而出名的人聯繫在一起。在這個想法的某些版本中,人們可以為他們創造的東西獲得報酬,即使它是通過大模型過濾和重新組合的,而技術中心也會因促進人們想做的事情而賺取費用。有些人對網絡資本主義的想法感到震驚,但這將是一種更誠實的資本主義。熟悉的「免費」安排是一場災難。」

主要的擔憂是工人將貶值或流離失所

科技界擔心 AI 可能成為生存威脅的原因之一是它可能被用來玩弄人,就像上一波數字技術一樣。鑑於這些新系統的力量和潛在影響,擔心可能導致滅絕的後果並非沒有道理。由於這種危險已得到廣泛認可,大模型 AI 的到來可能是重新格式化科技行業以使其變得更好的契機。

Jaron Lanier指出:「實現數據尊嚴需要技術研究和政策創新。從這個意義上說,作為一名科學家,這個主題讓我很興奮。打開黑匣子只會讓模型更有趣。它可能會幫助我們更多地了解語言,這是一項真正令人印象深刻的人類發明,也是我們在數十萬年後仍在探索的一項發明。」

「數據尊嚴能否解決人們經常表達的對人工智能的經濟擔憂?主要的擔憂是工人將貶值或流離失所。在公開場合,技術人員有時會說,在未來幾年,與人工智能打交道的人的工作效率會更高,並且會在生產效率更高的經濟體中找到新型工作。(例如,一名工人可能成為 AI 程序的快速工程師——與 AI 合作或控制 AI 的人)然而,私下里,這些人經常會說,『不,AI 會取代這種合作的想法。』今天的會計師、放射科醫生、卡車司機、作家、電影導演或音樂家不再需要報酬。」

人們需要集體談判能力才能在網絡世界中獲得價值

當大模型提供有價值的輸出時,數據尊嚴方法將追踪最獨特和最有影響力的貢獻者。例如,如果您向模特詢問「我的孩子在油畫世界中的動畫電影,講述的是貓的冒險之旅」,那麼某些重要的油畫家、貓肖像畫家、配音演員和作家——或他們的財產——可能被計算為對新傑作的創作具有獨特的重要性。他們會得到承認和激勵。他們甚至可能得到報酬。

有一個剛剛起步的數據尊嚴研究社區,這裡有一個辯論的例子:數據尊嚴應該嘗試多詳細的會計?不是每個人都同意。該系統不一定會考慮數十億為大型模型做出環境貢獻的人——例如,那些通過語法增加了模型的模擬能力的人。起初,數據尊嚴可能只關注在特定情況下出現的少數特殊貢獻者。不過,隨著時間的推移,更多的人可能會被包括在內,因為中間權利組織——工會、行會、專業團體等——開始發揮作用。數據尊嚴社區的人們有時稱這些預期的群體為個人數據的調解人(mids) 或數據信任。人們需要集體談判能力才能在網絡世界中獲得價值——尤其是當他們可能迷失在巨大的人工智能模型中時。當人們在一個群體中分擔責任時,他們會自我監督,從而減少政府和公司從上層審查或控制的需要或誘惑。承認大模型的人性本質可能會導致新的積極社會制度的蓬勃發展。

數據的尊嚴會創造新的收入來源

數據尊嚴不僅僅適用於白領角色。考慮一下如果引入人工智能驅動的樹木修剪機器人會發生什麼。人工修剪樹木的人可能會發現自己貶值甚至失業。但機器人最終可能會帶來一種新型的間接景觀藝術。一些前工人或其他人可能會創造出創造性的方法——比如,從不同角度看起來不同的全息修剪——找到他們進入樹木修剪模型的方式。有了數據的尊嚴,這些模型可能會創造新的收入來源,通過集體組織進行分配。隨著時間的推移,樹木修剪會變得更加多功能和有趣;會有一個社區有動力保持價值。人工智能或機器人應用程序的每一次成功引入都可能涉及一種新型創造性工作的開始。

矽谷的許多人將全民基本收入視為解決 AI 造成的潛在經濟問題的方法,但 UBI 相當於讓每個人都領取救濟金,以保留黑盒人工智能的想法。我認為這是一個可怕的想法,部分原因是壞人會想在全民福利體系中奪取權力中心,就像在每一個共產主義實驗中一樣。我懷疑數據尊嚴能否增長到足以維持整個社會,但我懷疑任何社會或經濟原則都不會完備。只要有可能,目標應該至少是建立一個新的創意類而不是一個新的依賴類。

數據尊嚴可以幫助任何人類毀滅的場景嗎?

人工智能公司擁抱數據尊嚴也有非利他主義的原因。模型的好壞取決於它們的輸入。只有通過像數據尊嚴這樣的系統,我們才能將模型擴展到新的領域。現在,讓 LLM 寫一篇論文比讓程序生成一個交互式虛擬現實世界要容易得多,因為現存的虛擬世界很少。為什麼不給那些添加更多虛擬世界的人一個獲得聲望和收入的機會來解決這個問題呢?

數據尊嚴可以幫助任何人類毀滅的場景嗎?一個大模型可能會讓我們變得無能,或者讓我們非常困惑,以至於我們的社會集體偏離軌道;一個強大的、惡毒的人可以利用人工智能對我們所有人造成巨大傷害;有些人還認為模型本身可以「越獄」,控制我們的機器或武器並用它們來對付我們。

我們不僅可以在科幻小說中找到其中一些場景的先例,還可以在更普通的市場和技術失敗中找到先例。一個例子是 2019 年與波音737 max噴氣式飛機有關的災難。這些飛機包括飛行路徑校正功能,在某些情況下會與飛行員發生衝突,導致兩起大規模傷亡事故。問題不在於孤立的技術,而在於將其集成到銷售週期、培訓課程、用戶界面和文檔中的方式。飛行員認為他們在某些情況下試圖抵消系統是在做正確的事情,但他們做的事情完全是錯誤的,而且他們無從得知。波音公司未能清楚地傳達該技術的工作原理,由此造成的混亂導致了災難。

當你失去上下文時,你就會失去控制

任何工程設計的東西——汽車、橋樑、建築物——都可能對人造成傷害,但我們已經在工程基礎上建立了文明。通過提高和擴大人類的意識、責任和參與,我們可以使自動化變得安全;相反,如果我們將我們的發明視為神秘事物,我們就很難成為優秀的工程師。將人工智能視為一種社會協作形式更具可操作性:它讓我們能夠進入由人組成的引擎室。

讓我們考慮一下人工智能使我們的社會脫離軌道的世界末日場景。發生這種情況的一種方式是通過深度造假。假設一個邪惡的人,可能在戰爭狀態下在反對政府工作,決定通過向我們所有人發送令人信服的視頻來引發大規模恐慌,視頻顯示我們所愛的人在家中遭受酷刑或被綁架。(在許多情況下,創建此類視頻所需的數據很容易通過社交媒體或其他渠道獲得。)混亂隨之而來,即使很快人們就知道這些視頻是偽造的。我們怎樣才能防止這種情況發生?答案很明顯:數字信息必須有上下文。任何比特集合都需要一段歷史。當你失去上下文時,你就會失去控制。

沒有出處,我們就無法控制人工智能

為什麼比特不附在它們起源的故事上?原因有很多。Web 的原始設計並沒有跟踪比特的來源,這可能使網絡更容易快速發展。(一開始計算機和帶寬很差。)當至少近似數字出處變得更可行時,為什麼我們不開始記住比特的來源?我總覺得我們希望 Web 比它需要的更神秘。不管是什麼原因,Web 被設計成可以記住所有內容而忘記其上下文。

今天,大多數人理所當然地認為 Web,實際上是它所建立的互聯網,就其本質而言,是反上下文的並且沒有出處。我們假設去上下文化是數字網絡概念所固有的。然而,事實並非如此。由傑出的科學家萬尼瓦爾·布什 (Vannevar Bush) 於 1945 年和計算機科學家泰德·納爾遜 (Ted Nelson) 於 1960 年提出的數字網絡架構的初步建議保留了出處。現在人工智能揭示了忽視這種方法的真正代價。沒有出處,我們就無法控制我們的人工智能,也無法使它們在經濟上公平。這有可能將我們的社會推向邊緣。

當機器人表現出操縱性、刻薄、怪異或欺騙性……

如果聊天機器人表現出操縱性、刻薄、怪異或欺騙性,當我們問為什麼時,我們想要什麼樣的答案?揭示機器人從中學習其行為的不可或缺的先例示例將提供一種解釋:我們將了解到它藉鑑了一部特定的同人小說或肥皂劇。我們可以對輸出做出不同的反應,並調整模型的輸入以改進它。為什麼這種類型的解釋不應該總是可用的?可能在某些情況下不應透露出處,以便優先考慮隱私——但出處通常比對隱私的獨家承諾對個人和社會更有益。

數據尊嚴的技術挑戰是真實存在的,必須激發嚴肅的科學雄心。政策挑戰也將是巨大的——這或許表明它們是有意義和具體的。但我們需要改變思維方式,接受艱苦的改造工作。通過堅持過去的想法——其中包括對人工智能獨立於為其做出貢獻的人而獨立生活的可能性的迷戀——我們冒著以讓世界變得更糟的方式使用我們的新技術的風險。如果社會、經濟、文化、技術或任何其他活動領域要為人們服務,那只能是因為我們決定人們享有特殊的服務地位。

這是我對所有同事的懇求。想想人。人是比特問題的答案。♦

本文僅代表作者立場,不代表本平台立場

分享文章

Facebook Comments 文章留言

- Advertisement -spot_img
特別報導
特別報導
銳傳媒資料中心

Latest news

Related news