智械危機來臨?馬斯克帶頭抵制GPT5 千人請命叫停“AI危險競賽”
1年前

短短6個月的時間,GPT3.5迭代到GPT4,當大家暢想一個更強大的GPT5的時候,馬斯克等科技圈大佬帶頭潑下冷水——3月29日,未來生命研究所(Future of Life Institute)公布一封公开信,呼籲所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統至少6個月

  截至發稿,超過1000人籤署了這封公开信,除了馬斯克之外,還包括圖靈獎得主約書亞本希奧(Yoshua Bengio)、美國作家兼紐約大學教授加裏馬庫斯(Gary Marcus)、《人工智能:現代方法》作者斯圖爾特羅素(Stuart Russell)、 蘋果公司聯合創始人史蒂夫沃茲尼亞克(Steve Wozniak)等。

AI威脅論是這封公开信的出發點。

  公开信表示,大量研究表明,具有與人類競爭智能的AI系統可能對社會和人類構成深遠的風險,這一觀點得到了頂級AI實驗室的承認……最近這幾個月,全球的AI實驗室已經完全失控了,它們瘋狂地开展AI競賽,來开發和部署更強大的AI,而沒有任何人可以理解、預測、控制這些AI,連它們的創造者都不能。

  顯而易見,這封信的矛頭直指OpenAI,且在信中援引了OpenAI的觀點——“OpenAI最近關於通用人工智能的聲明指出,‘在某些時候,在开始訓練未來的系統之前進行獨立審查可能很重要,並且對於最先進的工作來說,應該同意限制用於創建新模型的計算量增長。’我們同意。那個某些時候就是現在。”

  信中還寫道,這種暫停應該是公开的和可驗證的,並且包括所有關鍵參與者。如果不能迅速實施這種暫停,政府應介入並實行暫停。“這並不意味着總體上暫停AI开發,只是緊急從奔向不可預測的大型黑盒模型的危險競賽中收回腳步。”

  基於此,這封信提出建議,开發者必須與政策制定者合作,大幅加快开發強大的AI管理系統,該系統至少應該包括:

專門負責監管AI的機構;出處和水印系統,從而幫助區分真實與生成的內容,並且能夠跟蹤模型的泄漏;強大的審計和認證系統;在AI造成傷害後,明確誰該承擔責任。

  生命未來研究所什么來頭?

  這一幕似曾相識,當初谷歌在AI領域一騎絕塵,山姆阿爾特曼(Sam Altman)爲此舉辦了一個私人宴會,邀請了馬斯克等一衆科技圈大佬,最終在數月後成立了非營利組織OpenAI以遏制谷歌。如今,同樣的情景加諸己身。

  資料顯示,生命未來研究所同樣是一個非營利組織,它創立於2014年3月,其創始團隊主要是高校學者、學生,包括麻省理工學院宇宙學家馬克斯泰格馬克,Skype聯合創始人讓塔林等。其研究所顧問委員會成員來源較廣,部分名字耳熟能詳,包括宇宙學家史蒂芬霍金、特斯拉CEO埃隆馬斯克,亞倫艾達、摩根弗裏曼等演藝界人士也在其中。

  生命未來研究所關注包括AI、生物技術、核武器、氣候變化在內的多個重大議題。從其官網簡介來看,其主旨在於引導變革性技術造福生命,遠離極端大規模風險。


追加內容

本文作者可以追加內容哦 !

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。



標題:智械危機來臨?馬斯克帶頭抵制GPT5 千人請命叫停“AI危險競賽”

地址:https://www.breakthing.com/post/50761.html