OpenAI一拳把谷歌幹啞火,AI的开源時代要結束了嗎?
AI在過去十多年的飛速發展,得益於高校、企業與個人开發者的通力合作,讓人工智能領域內遍布开源的代碼、數據及教程。
谷歌也一直是AI行業的領軍者,發表的論文橫跨自然語言處理、計算機視覺、強化學習等多個領域,爲行業內貢獻了諸如Transformer, Bert, PaLM等諸多基礎模型與架構。
但OpenAI打破了遊戲規則,不僅拿着Transformer开發出了ChatGPT,還憑着初創公司的優勢,如受法律、輿論的影響更少,無需透露訓練數據、模型規模、架構等信息,甚至還挖走了不少谷歌等大廠的員工,打得谷歌是節節敗退。
面對不講武德的OpenAI,谷歌也只能被動挨打。
據匿名人士提供的消息稱,今年2月,Google AI的掌門人Jeff Dean在會議中表示:
谷歌將利用自己在人工智能方面的成果,只有在實驗室成果轉化爲產品後,才會共享論文。
轉向“防御狀態”的谷歌或許寄希望於把同類AI公司全都熬走,更好地保護自己的核心搜索業務及股價。
但AI如果少了這些大公司的开源精神,轉而走向壟斷,人工智能領域還能出現之前的發展奇跡嗎?
谷歌被偷家,只因“太負責”對於谷歌這種數十億用戶體量的公司,即使是小規模的實驗也可能會影響到數百萬人,並遭受輿論的反噬,這也是谷歌遲遲不愿推出聊天機器人並堅守“負責任AI”底线的原因。
2015年,Google Photos上线圖像分類功能,將一名黑人錯誤分類爲Gorillas(大猩猩),谷歌立刻陷入公關危機,迅速道歉並整改。
谷歌整改的措施就是把Gorillas標籤直接刪了,甚至還刪掉了貴賓犬(poodle),黑猩猩(chimpanzee),猴子(monkey)等類別。
結果就是圖像分類器不會再把黑人識別爲猩猩,但也識別不了真正的猩猩了。
盡管多年來谷歌一直在投入大量資金开發人工智能技術,但受限於神經網絡的黑盒不可解釋性,谷歌也無法完全保證投產後的可控性,需要更長時間的安全性測試,也就失去了先發優勢。
今年4月,谷歌CEO噼柴哥(Sundar Pichai)在參加《60分鐘》節目中仍然明確表示,人們需要對人工智能保持謹慎,它可能對社會造成很大的危害,比如僞造圖像和視頻等。
如果谷歌選擇“不那么負責”,勢必會引起更多監管機構、人工智能研究者和商界領袖的關注。
但DeepMind 聯合創始人Mustafa Suleyman表示,其實並不是因爲他們過於謹慎,而是因爲他們不愿意破壞現有的收入流和商業模式,只有當存在真正的外部威脅時,他們才會开始覺醒。
而這個威脅,已經來了。
留給谷歌的時間不多了自2010年起,谷歌就开始收購人工智能初創企業,並將相關技術逐步融入自家產品中。
2013年,谷歌邀請深度學習先驅、圖靈獎得主Hinton加盟(剛離職);一年後,谷歌還以6.25億美元收購了初創公司DeepMind
在被任命爲谷歌首席執行官後不久,噼柴哥更是宣布谷歌將以「AI優先」爲基本策略,將人工智能技術整合到其所有產品中。
多年的深耕也讓谷歌的人工智能研究團隊取得了諸多突破性進展,但與此同時,一些規模較小的創業公司也在人工智能領域取得了一些成就。
OpenAI 成立的初衷是爲了制衡大型科技公司對人工智能領域公司的收購壟斷,並且憑借小公司的優勢,OpenAI受到的審查和監管更少,而且更有意愿快速將人工智能模型交付到普通用戶手中。
所以人工智能的軍備競賽就在這種沒有監管的情況下愈演愈烈,面對競爭,大型企業的“責任心”可能會逐漸減弱。
谷歌高層也不得不選擇DeepMind所擁護的“人工智能技術匹配”、“超越人類智能”等通用人工智能概念的前景。
今年4月21日,噼柴哥宣布把原由Jeff Dean運營的谷歌大腦和此前收購的DeepMind合並,交由DeepMind聯合創始人兼首席執行官Demis Hass負責,以加速谷歌在人工智能領域的進步。
Hass表示,只需要幾年時間,AI水平可能就會比大多數人工智能專家預測的更接近人類智能的水平。
谷歌進入“战備狀態”最近幾個月,谷歌已對旗下人工智能業務進行了全面改革,主要目標是迅速推出產品,降低向小用戶群推出實驗性人工智能工具的門檻,在公平性等領域开發一套新的評估指標和優先級。
噼柴哥強調,谷歌嘗試加快研發速度並不意味着偷工減料。
爲了確保通用人工智能以負責任的方式發展,正在籌辦一個新部門以建立更有能力的系統、更安全且更負責任。
前谷歌大腦人工智能研究員Brian Kihoon Lee在今年1月大規模裁員潮中被解僱了,他將這種轉變描述爲谷歌從“和平時期”向“战爭時期”的轉變,一旦競爭變激烈,一切都會變。在战時狀態,競爭對手的市場份額增長也很關鍵。
谷歌發言人Brian Gabriel表示:在2018年,谷歌建立了內部管理結構和全面的審查流程,到目前爲止已經在各個產品領域進行了數百次審查。谷歌將繼續將該流程應用於面向外界的基於人工智能的技術,負責任的人工智能仍是公司的首要任務。
但決定人工智能產品何時准備上市的標准不斷變化,也引發了員工的不安情緒,比如谷歌在決定發布Bard後,調低了實驗性人工智能產品的測試分數標准,引起了內部員工的反對。
2023年初,谷歌公布了由兩個人工智能團隊(Responsible Innovation和Responsible AI)圍繞Bard設定的約20項政策,員工普遍認爲這些規定相當明確且完善。
也有員工認爲這些標准制定的更像是給外界表演看的,不如公开訓練數據或是开源模型,用戶能夠更明確了解模型的能力。
發論文需審批谷歌加速研發的決定對員工來說,喜憂參半。
喜的是,非科研崗位的員工們普遍持樂觀態度,認爲該決策可以幫助谷歌重回上風。
但對研究人員來說,在發表相關人工智能研究成果之前需要獲得額外的批准,可能意味着研究人員將在快速發展的生成式人工智能領域錯失首發機會。
也有一些人擔心,谷歌可能會悄悄壓下有爭議的論文,比如2020年由谷歌的道德人工智能團隊領導,Timnit Gebru和Margaret Mitchell共同撰寫的一項關於大型語言模型危害的研究。
過去一年間,許多頂尖的人工智能研究人員都被初創公司挖走了,部分原因在於谷歌對科研人員成果的不重視和過度審查。
一位前谷歌研究人員表示,獲得論文批准可能需要高級研究員反復進行嚴格審查。谷歌承諾了很多科研人員讓他們能夠繼續參與本領域更廣泛的研究話題,出版限制可能會讓迫使又一批研究人員出走。
AI研發該降速?谷歌加速發展之際,也有一些聽起來不是那么和諧的聲音,他們呼籲各大人工智能廠商放慢开發速度,並且認爲這項技術的發展速度已經超出了發明者的預期。
深度學習先驅Geoffrey Hinton稱超級智能人工智能存在逃脫人類控制的危險,於是離开了谷歌。
消費者也逐漸开始了解大型語言模型的風險和局限性,比如人工智能傾向於捏造事實等,而ChatGPT上的小字免責聲明上並沒有說清楚它的局限性。
基於ChatGPT的下遊應用暴露出了更多問題,例如斯坦福大學教授Percy Liang曾經展开過一項研究,新必應提供的引用大概只有70%是正確的。
5月4日,白宮邀請了谷歌、OpenAI、微軟的首席執行官會面,商討公衆對AI技術的擔憂,以及如何對AI進行監管。
美國總統拜登在邀請函中明確表示,AI公司必須確保產品的安全性,然後才能向公衆开放。
來源:新智元
本文作者可以追加內容哦 !
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。
標題:谷歌進入战備狀態,ChatGPT或成人工智能領域絕唱
地址:https://www.breakthing.com/post/57037.html