人工智能 (AI) 正面臨多樣性危機。如果不及時解決,人工智能工作文化中的缺陷將使偏見長期存在,並滲透到由此產生的技術中,這將排斥和傷害整個人群。最重要的是,由此產生的「智能」將是有缺陷的,缺乏各種社會情感和文化知識。雷切爾克羅威爾(CAREER FEATURE)發表在《自然》期刊上的最新文章<為什麼人工智能的多樣性危機很重要,以及如何解決它>(Why AI’s diversity crisis matters, and how to tackle it)說,「來自代表性不足群體的機器學習研究人員表示,AI這個領域迫切需要更多像他們這樣的人來確保技術為所有人提供服務。」(Machine-learning researchers from under-represented groups say the field desperately needs more people like them to ensure the technologies deliver for all.)
在紐約大學 AI Now Institute 2019 年的一份報告中,研究人員指出,超過 80% 的 AI 教授是男性。此外,黑人僅佔谷歌員工的 2.5%,佔 Facebook 和微軟員工的 4%。此外,該報告的作者指出,在討論 AI 的多樣性問題時,「過度關注『科技界的女性』」「過於狹隘,可能會賦予白人女性以高於其他人的特權」。
一些研究人員正在為變革而戰,但也存在抵制他們努力的文化。VDI/VDE Innovation + Technik 的科學顧問 Sabine Weber 表示:「在『哦,AI 就是未來,我們擁有所有這些閃閃發光的美好事物』的表象下,AI 學術界和 AI 行業基本上都是保守的,」一家總部位於柏林的技術諮詢公司。這兩個領域的人工智能「主要由來自富裕背景的中年白人男性主導。他們真的很執著於現狀」,Weber 說,他是AI 倡導組織 Queer的核心組織者。《自然》採訪了五位研究人員,他們帶頭努力改變現狀並使人工智能生態系統更加公平。
DELALI AGBENYEGAH:AI偏見影響了非洲,支持非洲人工智能
DELALI AGBENYEGAH是喬治亞州亞特蘭大 Shopify 的高級數據科學經理,以及 2023 年深度學習 Indaba 會議的主席。
我來自加納,2011 年在俄亥俄州阿克倫大學獲得統計學碩士學位。我的背景是使用機器學習解決客戶體驗管理中的業務問題。我運用我的分析技能來構建驅動客戶行為的模型,例如客戶定位推薦系統、潛在客戶評分的各個方面——潛在客戶的排名、優先聯繫哪些客戶進行不同的溝通——以及類似的事情。
今年,我還是Deep Learning Indaba的總主席,這是非洲機器學習和 AI 社區的會議,每年在不同的非洲國家舉行。去年,它在突尼斯舉行。今年,它將於 9 月在加納舉行。
我們的組織是為整個非洲建立的。去年有 52 個國家參加。目標是讓所有 54 個非洲國家都有代表。深度學習 Indaba 使每個國家都能擁有一個在當地推動事物發展的人際網絡。我們有旗艦活動,即年會和針對特定國家/地區的 IndabaX 活動(想想 TED 和 TEDx 演講)。
在加納的 IndabaX 會議期間,我們培訓人們如何編程以及如何處理不同類型的數據。我們還舉辦關於加納以外的行業正在發生的事情以及加納應如何參與的研討會。IndabaX 提供資金並推薦演講者,他們是為 Deep Mind、微軟和谷歌等公司工作的著名研究人員。
為了加強機器學習和人工智能以及加納的包容性,我們需要通過培訓年輕研究人員和學生來提高能力,以了解他們在該領域脫穎而出所需的技能組合和準備工作。我們面臨的頭號挑戰是資源。我們的經濟狀況使得政府和大多數加納人的注意力都集中在人們的日常麵包上。大多數加納人甚至沒有考慮過技術改造。許多當地學者不具備教授學生的專業知識,無法讓他們真正了解人工智能和機器學習。
我們今天使用的大多數算法和系統都是由非洲以外的人創建的。非洲的觀點缺失,因此,偏見影響了非洲。我們在做圖像相關的 AI 時,非洲的圖像並不多。非洲數據點佔大多數行業機器學習數據集的比例不超過 1%。
談到自動駕駛汽車,美國的路網乾淨整潔,但在非洲,路網非常顛簸,有很多漏洞。在美國或英國道路上訓練的自動駕駛汽車不可能真正在非洲行駛。我們還期望使用人工智能來幫助診斷疾病將改變人們的生活。但如果人們不去那裡收集數據、了解非洲的醫療保健和相關社會支持系統、疾病和人們居住的環境,這對非洲沒有幫助。
今天,人工智能和機器學習領域的非洲學生必須尋找獎學金並離開他們的國家去學習。我希望看到這種變化,我希望看到非洲人參與決策,在機器學習和人工智能研究方面開創巨大突破。
非洲以外的研究人員可以通過指導和與非洲現有的努力合作來支持非洲人工智能。例如,我們有加納 NLP,這是一項專注於構建算法以將英語翻譯成三種以上加納語言的計劃。自願為針對非洲的研究貢獻他們的技能的全球研究人員將有助於此類努力。深度學習 Indaba 有一個門戶網站,研究人員可以在其中註冊成為導師。
MARIA SKOULARIDOU:AI對殘疾人並不友善
MARIA SKOULARIDOU是英國劍橋大學生物統計學博士生,{Dis}Ability in AI 創始人兼主席。
我在 2018 年創立了{Dis}Ability in AI,因為我意識到殘疾人在會議上沒有代表而且感覺不對。我想發起這樣一場運動,讓會議具有包容性和無障礙性,讓像我這樣的殘疾人也能參加。
那一年,在加拿大蒙特利爾舉行的 NeurIPS(神經訊息處理系統年度會議)上,至少有 4,000 人參加,我無法確定任何一個人可以歸類為明顯殘疾。從統計上講,它並沒有加起來沒有任何殘疾參與者。
我還觀察到許多可訪問性問題。例如,我看到了對色盲不體貼的海報。這個地方非常擁擠,以至於使用輪椅、白手杖或服務犬等輔助設備的人沒有空間在海報會議上導航。有電梯,但對於行動不便的人來說,考慮到場地的大小,要進入所有會議室並不容易。也沒有手語翻譯。
自 2019 年以來,AI 中的 {Dis}Ability 幫助促進了 NeurIPS 更好的可訪問性。有口譯員,並為有聽力問題的人提供隱藏式字幕。為行動不便或視力不佳且需要幫助的人提供志願護送。有熱線諮詢員和安靜的房間,因為大型會議可能會讓人不知所措。當時的想法是:這是我們現在可以提供的,但如果我們在某些方面不體貼,請聯繫我們,因為我們希望做到合乎道德、公平、平等和誠實。殘疾是社會的一部分,需要得到代表和包容。
許多殘疾研究人員分享了他們對人工智能面臨的障礙的恐懼和擔憂。有些人表示,他們不會覺得分享有關自己慢性病的詳細訊息是不安全的,因為如果他們這樣做,他們可能無法獲得晉升、受到平等對待、無法獲得與同齡人相同的機會、獲得相同的薪水等等。與我聯繫的其他 AI 研究人員都曾被欺負過,他們覺得如果再說出自己的情況,他們甚至可能會丟掉工作。
來自邊緣化群體的人需要參與人工智能過程的所有步驟。當不包括殘疾人時,運算法的訓練不會考慮我們的社區。如果一個有視力的人閉上了眼睛,那並不能使他們理解盲人必須面對的事情。我們需要成為這些努力的一部分。善良是非殘疾研究人員可以使該領域更具包容性的一種方式。非殘疾人可以邀請殘疾人進行演講或拜訪研究人員或合作者。他們需要在公平和平等的層面上與我們的社區互動。
WILLIAM AGNEW 和 SABINE WEBER:酷兒 AI
William Agnew 是西雅圖華盛頓大學的計算機科學博士候選人。Sabine Weber 是德國愛爾福特 VDI/VDE Innovation + Technik 的科學顧問。他們是倡導組織 Queer in AI 的組織者。
Agnew:我在 2018 年幫助組織了NeurIPS 的第一屆AI 酷兒研討會。從根本上說,AI 領域並沒有認真對待多樣性和包容性。在此過程中的每一步,這些領域的努力都缺乏資金和低估。該領域通常會保護騷擾者。(編按:酷兒(Queer)是一個傘式術語,是對所有性取向非異性戀以及性別認同非二元性別或非順性別的人的統稱。)
大多數從事 Queer in AI 工作的人都是研究生,包括我。你可以問,「為什麼不是資深教授?為什麼不是什麼副總裁?」 缺乏高級成員限制了我們的運作和我們有資源去倡導的東西。
我們提倡的事情是自下而上發生的。我們要求不分性別的廁所;在會議註冊徽章、演講者傳記和調查中使用代詞;有機會進行我們的酷兒 AI 體驗調查,以收集人口統計數據、傷害和排斥體驗以及酷兒 AI 社區的需求;我們反對提取數據政策。我們,作為一群因酷兒而被邊緣化的酷兒,並且是我們領域中資歷最淺的人,必須站在這些立場上進行宣傳。
在我們的調查中,酷兒群體一致認為缺乏社區、支持和同伴群體是他們最大的問題,可能會阻止他們繼續在人工智能領域的職業道路。我們的一項計劃提供獎學金,以幫助人們申請研究生院,以支付申請費、標準化入學考試費用,例如研究生入學考試 (GRE) 和大學成績單。有些人必須飛到不同的國家才能參加 GRE。這是一個巨大的障礙,特別是對於酷兒來說,他們不太可能從家人那裡獲得經濟支持,並且經歷著壓制性的法律環境。例如,美國各州立法機構正在通過影響我們會員資格的反跨性別和反酷兒法律。
在很大程度上,由於我在 AI 領域與 Queer 的合作,我從機器人專家轉變為倫理學家。如何使用、收集和濫用酷兒人群的數據是一個大問題。另一個問題是,機器學習從根本上講是對物品和人進行分類,並根據過去的情況預測結果。這些事情與酷兒的概念是對立的,酷兒的身份是流動的,並且經常在重要和重大的方面發生變化,並且在整個生命中經常發生變化。我們反擊並嘗試想像不壓制酷兒的機器學習系統。
你可能會說:「這些模型並不代表酷兒。我們會修復它們。」 但酷兒長期以來一直是不同形式監視的目標,目的是出動、控製或壓制我們,而一個了解酷兒的模型也能更好地監視他們。我們應該避免開發會加深這些危害的技術,並努力開發賦予酷兒社區權力的技術。
韋伯:之前,我在一家科技公司擔任工程師。我對我的老闆說,在整個 60 多個開發人員團隊中,我是唯一一個不是順性別的人。他回答說:「你是唯一一個有資格申請你工作的人。很難找到合格的人。」
但公司顯然並沒有很努力地尋找。對他們來說,感覺就像:「我們高高在上。每個人都來找我們並獻出自己。」 相反,公司可以在酷兒組織、女權組織中招聘人員。每所大學都有一個女性科學、技術、工程和數學 (STEM) 小組或計算機小組的女性,公司可以很容易地找到這些女性。
但是想法是,「我們一直都是這樣做的;不要破壞船」,很普遍。真令人沮喪。事實上,我真的很想打破現狀,因為這艘船很蠢。遇到這些障礙真是令人失望。
LAURA MONTOYA:不斷發展以滿足拉丁裔社區的需求
LAURA MONTOYA是加利福尼亞州舊金山 Accel.AI Institute 和 LatinX in AI 的執行董事。
2016 年,我創辦了Accel.AI Institute,作為一家教育公司,幫助 AI 中代表性不足或服務不足的人。現在,它是一個非營利組織,其使命是推動 AI 實現社會影響計劃。我還與他人共同創立了LatinX in AI 項目,這是一個為該領域具有拉丁美洲背景的人提供的專業機構。我是美國的第一代人,因為我的家人是從哥倫比亞移民過來的。
我的背景是生物學和物理科學。我的職業生涯始於一名軟體工程師,但傳統的軟件體工程對我來說並沒有什麼回報。就在那時,我發現了機器學習、數據科學和人工智能的世界。我研究了無需進入研究生院即可了解 AI 和機器學習的最佳方法。我一直是一個另類的思想家。
我意識到需要為像我這樣的人提供替代教育選擇,他們不走典型的路線,認同自己是女性,認同自己是有色人種,想要尋求使用這些工具和技術的替代途徑.
後來,在參加大型人工智能和機器學習會議時,我遇到了像我這樣的人,但我們只佔人口的一小部分。我和這幾個朋友聚在一起集思廣益,「我們怎樣才能改變這個?」。AI 中的 LatinX 就是這樣誕生的。自 2018 年以來,我們在主要會議上發起了研究研討會,並與 NeurIPS 一起舉辦了我們自己的論文徵集活動。
我們還有一個為期三個月的指導計劃,以解決因研究人員離開拉丁美洲前往北美、歐洲和亞洲而導致的人才流失問題。我們社區的更多高級成員,甚至不是 LatinX 的盟友都可以擔任導師。
2022 年,我們啟動了超級計算機計劃,因為拉丁美洲大部分地區嚴重缺乏計算能力。對於我們的試點項目,為了在墨西哥蒙特雷理工學院瓜達拉哈拉校區提供對高性能計算資源的研究訪問,位於加利福尼亞州聖克拉拉的技術公司 NVIDIA 捐贈了一個 DGX A100 系統——本質上是一個大型服務器電腦。墨西哥哈利斯科州的政府創新機構將主持該系統。本地研究人員和學生可以共享此硬件的訪問權限,以進行 AI 和深度學習研究。我們在全球範圍內徵集了至少 50% 想要使用該硬件的拉丁裔成員的團隊提案,而無需在研究所註冊,甚至無需位於瓜達拉哈拉地區。
到目前為止,已經選擇了八個團隊參加第一批研究,致力於包括拉丁美洲自動駕駛應用程序和動物保護監測工具在內的項目。每個團隊都可以在他們請求的時間段內訪問一個圖形處理單元或 GPU——它被設計用來並行處理複雜的圖形和視覺數據處理任務。這將是一個交叉合作的機會,研究人員可以聚在一起解決重大問題,並利用這項技術做好事。
本文僅代表作者立場,不代表本平台立場
Facebook Comments 文章留言