中新網3月30日電 美劇《西部世界》和好萊塢電影《終結者》裏曾描繪,人工智能(AI)的“覺醒”可能危及人類。最近,科幻片中的擔憂照進現實,有不少人工智能業界“大佬”突然呼籲暫停开發更強大的AI系統,提出具有人類水平智能的AI系統可能“對社會和人類構成潛在風險”。
他們的擔憂從何而來?人工智能开發會否危及人類的“文明控制權”?AI的發展是否已來到需要按下“暫停鍵”的轉折點?
一封公开信,四問AI風險
近期,美國億萬富翁埃隆·馬斯克和人工智能領域頂尖專家、圖靈獎得主約書亞·本吉奧(Yoshua Bengio)等人聯名籤署了一封公开信,呼籲暫停开發比GPT-4更強大的AI系統至少6個月,稱其“對社會和人類構成潛在風險”。
呼籲暫停巨型AI訓練的公开信。圖片來源:“未來生命研究所”網站
這封發布在非營利性組織“未來生命研究所”(Future of Life Institute)網站上的公开信主張,在开發強大的AI系統之前,應先確認其帶來影響是積極的、風險是可控的。
信中詳述了具有人類水平智能的AI系統可能對社會和人類帶來極大的風險,稱“這一點已經得到大量研究和頂級AI實驗室的認同”,並連續拋出四個疑問:
- 我們是否應該讓機器用宣傳和謊言淹沒我們的信息渠道?
- 我們是否應該讓所有的工作自動化,包括那些令人滿意的工作?
- 我們是否應該發展最終可能在數量上超過我們、在智能上超越我們、能夠淘汰並取代我們的非人類思維?
- 我們應該冒着失去對我們文明控制的風險嗎?
公开信指出,如果不能迅速實施此類暫停,政府應當介入並採取措施。此外,“AI實驗室和獨立專家應該利用這次暫停,共同开發和實施一套用於高級AI設計和开發的共享安全協議,並由獨立的外部專家進行嚴格審計和監督”。
信中還呼籲开發人員和政策制定者合作,大幅加快強大的AI治理系統的开發。這其中至少應當涉及監管機構、審計和認證系統、監督和追蹤高性能AI系統、人工智能造成傷害後的責任問題、爲AI技術安全研究提供公共資金等方面。
公开信在最後提到,如今,我們的社會已經暫停其他可能造成災難性影響的技術,對於人工智能也應該如此,“讓我們享受一個漫長的‘AI之夏’,而不是毫無准備地進入秋天”。
技術、倫理、利益,呼籲放慢腳步爲哪般?
從這些內容中不難看出,比起技術,公开信的支持者更在意的,是人工智能可能出現的“野蠻生長”,以及它的發展可能帶來的社會和倫理難題。
公开信中提到,此番暫停並不意味着從總體上暫停人工智能的开發,而是從危險競賽中“後退一步”。人工智能的研究和开發應該重新聚焦於使當今強大的、最先進的系統變得更加准確、安全、可解釋、透明、穩健、一致、可信且可靠。
紐約大學教授加裏·馬庫斯所人爲,“這封信並不完美,但精神是正確的”,他認爲,人們需要放慢腳步,直到可以更好地理解這一切帶來的後果。
目前,該公开信已獲上千人籤署,其中不乏开源人工智能公司Stability AI首席執行官莫斯塔克(Emad Mostaque)、谷歌母公司Alphabet旗下人工智能企業DeepMind研究人員、計算機科學家斯圖亞特·羅素(Stuart Russell)等專家學者和科技公司高管。
發布公开信的“未來生命研究所”則主要由馬斯克基金會、硅谷社區基金會等資助。特斯拉首席執行官馬斯克正在將人工智能應用於自動駕駛系統,他也一直坦率表達自己對人工智能的擔憂。
路透社還稱,歐洲刑警組織(Europol)日前也表達了對ChatGPT等先進人工智能在倫理和法律方面的擔憂,警告此類系統可能會被濫用於網絡釣魚、虛假信息和網絡犯罪。此外,英國政府也公布了關於建立AI監管框架的提議。
在網絡上,這封信也引起熱烈討論,有網友表示認同,人們需要知道發生了什么,“僅僅因爲我們知道可以建造它,並不意味着應該建造”。
但也有人懷疑馬斯克的動機,“馬斯克之所以會籤署它,因是爲他想用自己的人工智能來賺錢。”
還有人分析,“這很可怕,但我認爲有些項目不需要停止。技術正在發展迅速,負責任的創新也是必要的。”
關於人類和AI關系的思考,從技術誕生之初就沒有停過。著名物理學家霍金也曾說過,“成功創造了人工智能,很可能是人類文明史上最偉大的事件。但如果我們不能學會如何避免風險,那么我們會把自己置於絕境”。
如今,從通過資格考試,到進行藝術“創作”,AI能做的事越來越多,朝着“智能”的方向越走越遠。但同時,利用AI技術進行網絡詐騙勒索、傳播非法信息等犯罪行爲也層出不窮。
不同於物理世界技術創新成果轉化的漫長周期,AI技術突破往往會通過互聯網一夜之間散播全球。在人類未能就AI倫理、監管等找到妥善解決之道前,這些討論和擔憂並不多余。
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。
標題:馬斯克等千人籤署公开信,人工智能开發危及“文明控制權”?
地址:https://www.breakthing.com/post/51529.html