特斯拉CEO馬斯克日前帶頭號召人工智能(AI)研究機構暫停ChatGPT那樣的大語言模型發展,反映出不少人對於AI發展速度失控的擔憂甚至恐慌。這一獲得超過兩千多簽名的倡議並未引起多數中國AI業者的興趣。批評者說,美國AI研究機構若主動放慢AI發展,將給中國以可乘之機。
GPT-4的出現令人不安
基於AI大語言模型的聊天機器人ChatGPT去年年底推出後,其強大的語言表達和信息整理能力隨即引發世人震驚。不久前,ChatGPT的研發機構、美國OpenAI實驗室本月推出了功能更為強大的升級版本GPT-4,不僅能回答文字提問,還能分析圖片信息。
更讓科技觀察人士感到震驚的是OpenAI於本月23日推出的GPT-4插件功能,讓這一大語言模型實時接入互聯網上的信息,甚至可以接入第三方應用程序。有人將GPT-4插件的重要性比喻成從傳統手機到iPhone那樣質的飛躍。
AI大語言模型發展“失控”,讓許多科技業界人士感到不安。
“我對我的同事說,哇,這是(AI大語言模型)向前邁出的非常重要的一步。” 英國搜索引擎公司Mojeek首席執行官科林·海赫斯特(Colin Heyhust)在一次電話採訪中,向美國之音形容他了解到插件功能時震驚的感受。
海赫斯特同其他逾千名科技界人士簽署了一封由美國生命未來研究所(Future of Life Institute)3月29日發起的聯名信,呼籲所有AI實驗室暫停腳步,在未來6個月停止訓練比GPT-4更強大的AI系統,以發展出一套有關AI設計與研發的安全準則。
公開信說:“只有當我們確信其效果是積極的、風險是可控的時候,才可以去開發強大的人工智能係統。”
公開信得到了很多科技業大佬的響應,因此受到各方矚目。聯署人包括特斯拉CEO馬斯克和加拿大人工神經網絡和深度學習技術專家約書亞·本希奧(Yoshua Bengio)。馬斯克是生命未來研究所的創始人之一。
公開信說,AI正在開始在一些任務上與人類展開競爭,對AI的極速發展提出了五大質疑:是否應該讓機器在人類信息管道中散布宣傳和謊言?是否應該讓所有工作(包括那些讓人類具有成就感的工作)都自動化?是否應該培育出最終可能在數量和智力上超過人類、讓人類過時並取代人類的非人類思維?是否應該冒著失去對人類文明控制的風險去開發AI?
有批評者指出,ChatGPT有時對一些問題會以充滿自信的語氣給出不實答案,提供錯誤信息。這種AI聊天機器人“胡言亂語“的現像被稱為“幻覺”(Hallucination),形容的是人工智能的自信反應,反應了AI模型使用的的訓練數據並不能證明輸出的合理性。
“當你奔向一個可能有懸崖邊緣的地方,你不應該加速。我認為目前這種情況正在發生。” 海赫斯特對美國之音說。
長期關注AI安全性的華盛頓智庫新美國安全中心(CNAS)副總裁兼研究總監保羅·沙瑞爾(Paul Scharre)最近在接受美國之音採訪時說,必須確保AI系統安全可靠。
他說:“如今,許多人工智能係統都存在非常嚴重的安全問題。它們往往會做出奇怪的事,我們需要在人工智能的安全方面做得更好,以確保我們正在推動的系統——無論是用於聊天機器人的商業系統還是軍事硬件——都是安全可靠的,確保它們會做我們期望它們做的工作。”
本文僅代表作者立場,不代表本平台立場
Facebook Comments 文章留言