當人類犯錯時,我們很容易產生共鳴,因為我們意識到人並不完美。但我們希望我們的機器是正確的。例如,我們永遠不會懷疑計算器。這使得當人工智慧出錯時我們很難原諒它。但同理心可以成為一種強大的調試工具:畢竟,這些都是人造系統。如果我們花時間不僅檢查人工智慧的流程,還檢查其訓練資料集背後存在缺陷的人類流程,我們可以使人工智慧變得更好,並有望反思我們的社會和文化偏見,並努力消除它們。人工智慧總是會給出有缺陷的答案嗎?我們能否防止人工智慧使我們過去的問題變得更加複雜?四位專家發表了看法。Neel Dhanesha and Charley Locke發表在最新一期《國家地理雜誌》(National Geographic) 的<您最大的人工智慧問題已得到解答>( Your biggest AI questions, answered)。
近半個世紀以來,弗雷德·裡欽一直在思考照片的未來。 1982年,他在《紐約時報》雜誌擔任圖片編輯,開始注意到媒體的變化; 1984 年,他為雜誌撰寫了一篇文章《攝影的新技巧》,討論數位編輯技術對當代新聞攝影的影響。此後的幾十年裡,他見證了從早期的數位照片編輯到人工智慧影像的轉變,業餘用戶和專業用戶都可以使用數位服務立即產生逼真的視覺效果。
人們需要找到新的方法來確認他們所看到的東西
隨著人工智慧圖像變得越來越普遍,裡欽認為人們需要找到新的方法來確認他們可以相信他們所看到的東西。當然,人工智慧圖像並不是憑空出現的。裡欽追溯了當代關於人工智慧最佳實踐的對話,一直追溯到 Photoshop 時代之前關於記者是否應該披露修改照片的對話。在數位編輯的早期,《國家地理》雜誌因在 1982 年 2 月的封面圖片中以數位方式將吉薩金字塔移得更近而受到批評。如今,《國家地理》攝影師被要求以 RAW 格式進行拍攝,這種格式會產生未經處理、未壓縮的影像,而該雜誌對照片處理有嚴格的政策。
裡欽認為,編輯、出版商和攝影記者應該透過制定明確的標準來應對人工智慧的挑戰;媒體和相機公司已經開始開發自動在照片中嵌入元資料和加密浮水印的選項,以顯示影像的拍攝時間以及是否透過數位編輯或人工智慧變更進行了篡改。雖然裡欽並不主張完全拒絕人工智慧,但他希望重塑攝影曾經在我們個人和政治生活中所擁有的獨特力量。
不斷發展的演算法可能會產生幻覺
想想尼克烏特 (Nick Ut) 1972 年拍攝的一張照片,照片中一名越南女孩在凝固汽油彈襲擊中赤身裸體奔跑,當時一張照片就能引起全世界的關注。 「將軍。威廉·威斯特摩蘭試圖說這是一起火盆事故;理查德·尼克森總統想否認這一點,」裡欽說。但這張照片「有助於更快地結束戰爭,很多人沒有[失去]生命。這是一件大事……但現在,你可以看到這一點並想,某個車庫裡某個 14 歲的孩子也可以做到這一點;這不會改變我的投票。
一個特別有趣的時刻是,最近的一項研究表明,許多人依賴的最受歡迎的人工智慧聊天機器人之一一直在分享不準確的編碼和電腦程式建議。這是人工智慧目前面臨的一個大問題——這些不斷發展的演算法可能會產生幻覺,這個術語指的是當學習模型產生聽起來似乎合理但完全是捏造的陳述時會發生什麼。
在披薩上塗上膠水以防止奶酪滑落
這是因為大型語言模型等生成式人工智慧應用在功能上相當於預測程式。當你提出問題時,人工智慧會在其知識庫中篩選相關資訊。然後,使用該訊息,它會預測一組它認為是對您的問題的期望答案的單字。該預測之後是另一個預測(另一組單字),它已被訓練為期望接下來應該出現,依此類推。
但卡內基美隆大學機器學習系和亨氏資訊系統與公共政策學院教授雷伊德·加尼(Rayid Ghani) 表示,這個過程更強調機率而不是事實:大多數生成式人工智慧模型都接受過來自互聯網的大量數據的訓練。這就是為什麼,例如,我們從谷歌的人工智能中得到了臭名昭著的錯誤,建議在披薩上塗上膠水以防止奶酪滑落;該提議源自於 Reddit 上的一個老笑話。
人工智慧有一個水問題
人工智慧有一個水問題——實際上是一個能源問題。為人們在日常生活和職業生活中越來越多地使用的人工智慧工具提供動力所需的能量會產生大量的熱量。這些熱量被釋放到資料中心,為這些人工智慧系統提供運作所需的運算支援和儲存空間。而且,正如加州大學河濱分校電氣和電腦工程副教授 Shaolei Ren 很快指出的那樣,冷卻資料中心需要大量的水,相當於數萬名城市居民的用水量。
「例如,當你用水洗澡時,它可以重複使用,」任說,他的研究重點是如何使人工智慧對社會和環境更加負責。 “當水蒸發來冷卻資料中心時,它就消失了。”隨著立法者爭先恐後地制定法規並要求公司對其能源和水的使用負責,Ren 認為,對於我們個人和社會來說,更好地了解向 ChatGPT 這樣的應用程式提出問題的實際成本非常重要。
甚至在當前的人工智慧熱潮之前,資料中心的水和能源需求就已經穩定增加。據谷歌稱,到 2022 年,其資料中心的用水量將超過 50 億加侖,比 2021 年增加 20%; 2022 年,微軟全公司的用水量比 2021 年增加了 34%。
人工智慧只會加劇現有資源壓力
人工智慧只會加劇資料中心對全球能源網造成的現有資源壓力:國際能源總署表示,到 2026 年,資料中心的電力消耗將是 2022 年的兩倍。雖然美國剛開始關注資料中心的環境成本,但歐盟能源委員會在三月推出了一項法規,旨在提高資料中心營運商的透明度,並最終減少對化石燃料的依賴和資源浪費。
「我用我孩子能理解的語言來解釋,」任說。 「如果您問 ChatGPT [3] 一個問題,它所消耗的能量與開燈(在我們家裡,一個四瓦 LED 燈泡)一小時的能量相同。如果你與像 ChatGPT 這樣的人工智慧對話,回答 10 到 50 個問題,它會消耗大約 500 毫升的水,相當於一瓶標準水的大小。
分散式人工智慧研究所的高級研究員 Nyalleng Moorosi 表示,當人工智慧吸收人類創造的所有數據時,它就成為一面鏡子,反映了持續塑造世界的刻板印象、種族主義和不平等。她解釋說,這些偏見往往是由於受僱構建人工智慧系統和工具的人員缺乏多樣性造成的,他們過於依賴數據集,而這些數據集優先考慮了西方關於什麼是有價值的資訊、什麼是無價值資訊的看法。
今天,全球大多數人都知道外國制度強加給他們是什麼感覺,這是殖民化後果的一部分。 Moorosi 認為人工智慧有潛力複製這些系統——優先考慮當權者的觀點和議程,同時邊緣化原住民知識和文化價值。
我們不能要求矽谷代表我們全部 80 億人
科技公司僱用的團隊通常存在盲點,這些盲點不可避免地會內建在人工智慧工具中。莫羅西認為,改變方向的關鍵是使人工智慧民主化:吸收使用數百種語言、以數千種與歐洲中心思想不同的方式思考的人們的聲音。這意味著將人工智慧開發從大型科技領域轉移到地方層面,使開發人員和工程師能夠根據社區的需求和體驗客製化工具。莫羅西認為,最終的系統將更加尊重其創作者的背景。總部位於南非的Lelapa AI 成立於2022 年,最近推出了一種語言學習模型,該模型現已成為聊天機器人和其他創新的基礎,以滿足斯瓦希里語、約魯巴語、科薩語、豪薩語或祖魯語使用者的需求。
「我們絕對必須質疑權力問題。我們不能指望 Google 員工或 OpenAI 員工能夠理解我們所有人。我們不能要求矽谷代表我們全部 80 億人。最好的方法是我們每個人都在本地建置系統,」Moorosi 說。 “我的人工智慧烏托邦是人們有機會並有勇氣部署人工智慧來解決自己的問題。”
本文僅代表作者立場,不代表本平台立場
Facebook Comments 文章留言