本文由速途網(sootoo123)原創
作者 / 喬志斌
北京時間6月6日凌晨,蘋果WWDC 2023全球开發者大會正式开幕,作爲蘋果一年一度的开發者盛會,不僅迎來了iOS、iPadOS、tvOS、macOS、watchOS等一系列新系統以及新技術的發布,同時也迎來了M2 Max、M2 Ultra兩款桌面級芯片,預示着蘋果Mac產品线开始全面轉向自研芯片。
而作爲“One more thing”登場的Apple Vision Pro,更是將所有人的興趣點直接引向高潮,成爲近年來最受關注的蘋果產品。
Apple Vision Pro殺入XR市場,蘋果“出場即王炸”作爲幾乎不在人前提及“元宇宙”的蘋果公司,如今靠着Apple Vision Pro殺入元宇宙領域,不得不讓行業感嘆,其作爲全球市值最高的科技公司,那令行業望塵莫及的產品設計能力,與品牌號召力。
蘋果公司CEO庫克表示,“Apple Vision Pro將帶我們進入空間計算時代,這是一個偉大歷程的起點,一個強大個人化科技的全新維度。”
圖爲Apple Vision Pro
圖爲Meta Quest2
首先在設計上,Apple Vision Pro採用了環繞式的頭帶設計,相比市面上XR很多爲了分攤重量而採用頂部頭帶式的“發型毀滅者”設計,對於燙頭愛好者來說要友好得多。
而爲了解決XR產品的“沉浸感”難題,蘋果用做VR頭顯的方式,打造了一台AR頭顯。Apple Vision Pro完全放棄傳統AR眼鏡顯示畫面與現實場景疊加的方式,轉而採用攝像頭捕捉場景,並通過內置雙目定制的高素質Micro-OLED屏幕映射現實場景,實現了視頻上的“通透模式”。這樣做,成功避免了傳統AR頭顯在強光下顯示不清晰的問題。
當然,用戶還可以通過撥動數碼旋鈕,實現現實場景與虛擬場景的切換,當用戶切換至虛擬場景中,就仿佛在視覺上开啓了“降噪模式”,大幅提升了使用的沉浸感。
雖然實現形式與目前VR行業普遍採用的VST(Video See Through,視頻透視)功能並無二致,但蘋果在傳感器的堆料上,卻可以用“喪心病狂”來形容。
Apple Vision Pro正面共搭載了6顆常規攝像頭、2顆深感攝像頭、2顆紅外發射器,以及一顆LiDAR(光學雷達)構成,能夠以極高的速度捕捉外部場景與手部動作。內部則由4顆紅外攝像頭以及LED照明模組構成,用以捕捉眼神的移動。此外機身內部還內置了5枚傳感器與6個麥克風,分別進行用戶頭部動作和聲音的捕捉。
而想要同時驅動大量的傳感器,蘋果還從芯片層面开始定制,爲Apple Vision Pro搭載了M2芯片,強大的算力能夠執行先進的計算機視覺(CV)算法,全新的R1芯片專門負責處理來自攝像頭、傳感器和麥克風的輸入,將圖像在12毫秒內傳輸到顯示屏上,實現幾乎無延遲、實時的視界觀感。這也讓Apple Vision Pro實現了不需要額外的手柄外設,僅通過頭顯對於眼神、手指、語音的捕捉,便可以實現大部分的操作。
另外,Apple Vision Pro所搭載的M2芯片,更是爲設備提供了強大的性能。相比市面XR設備普遍採用的高通驍龍XR2芯片,M2的CPU性能是前者的2.5倍,GPU性能更是前者的5倍。配合深感鏡頭,Apple Vision Pro能夠直接錄制3D視頻。
至於佩戴XR設備時的“社交”難題,蘋果給出的答案是“EyeSight”功能,通過一塊向外的屏幕,可以展示你的眼睛,讓附近的人知道你是否在使用應用程序或完全沉浸在體驗中。而當有人接近時,Vision Pro會在畫面中讓用戶看到對方,並向他們展示眼神。用眼神的專注,解決社交的尷尬。
事實上,在速途網看來,Apple Vision Pro相對於XR行業現有困局的多點突破,源自於“不惜成本”:一個軟硬件實力皆強勁的企業,在產品上死命堆料的結果,而代價是3499美元的高昂售價,這也充分體現了蘋果強大的行業號召力,以及充足的現金流,給予了蘋果定價的勇氣。
而Apple Vision Pro的發布,也給了行業一些思考:我們看似始終到達不了的那個“元宇宙”,並非遙不可及,只是我們需要更多的能量,用產品改變世界的能量。
內卷改變不了世界,但創新可以。
Apple Vision Pro將於2024年年初逐步开售,高昂的價格以及近一年的准備期,也爲其他XR企業預留了發展的空間。一方面,蘋果在等待开發者構建成熟生態的時間裏,也爲其他廠商提供了產品轉向的機會;另一方面,3499美元之下,充分的定價空間,也讓更多XR廠商們能夠現在現有的技術條件下,做出Cost Down的產品,豐富XR市場,帶來XR市場的繁榮。
除了驚豔的Apple Vision Pro,作爲目前大熱的AI技術領域,蘋果也小小地秀了一下肌肉,發布了多項基於AIGC、語言模型、機器學習等方面的技術,展示了蘋果這家看似平時不怎么與AI搭邊的公司,不容小覷的AI實力。
AIGC、語言模型技術亮相,蘋果AI積累不容小覷 AIGC生成人像
在使用Apple Vision Pro進行FaceTime視頻通話時,由於沒有朝向用戶的攝像頭,而用戶佩戴XR設備,也會讓用戶看上去非常奇怪。爲此,蘋果通過Apple Vision Pro前置鏡頭掃描人臉信息,基於機器學習技術,系統會使用先進的編碼神經網絡,爲用戶生成一個“數字分身”,並動態模仿用戶的面部和手部的動作,甚至可以保留數字分身的體積感和深度。使用的簡易性和效果甚至超越了目前市面上的一部分數字分身軟件。
更加智能的輸入法衆所周知,XR行業目前最受詬病的困局之一,便是輸入方式的匱乏,無論是手柄的單鍵輸入,還是浮空鍵盤的輸入方式,無論在效率與精度上,相比實體鍵盤,體驗都十分糟糕。
而Apple Vision Pro主要互動方式爲眼神、手勢和語音,這就意味着語音輸入可能將成爲Apple Vision Pro最主要的鍵入方式之一。
雖然蘋果並沒有在Apple Vision Pro介紹中強調輸入法,但是在iOS 17的介紹中則提到了更加智能的輸入法,不僅可以糾正拼寫錯誤,甚至還可以糾正用戶在輸入過程中的語法錯誤。自動更正的單詞會被臨時下劃线標記,讓用戶清晰地知道哪些單詞被更改了,並且只需輕觸一下即可恢復到原始單詞。
更爲重要的是,基於設備端的機器學習,輸入法還會根據用戶每一次的鍵入自動改進模型。將輸入法的自動糾正功能達到了前所未有的准確度。此外,基於最前沿的單詞預測Transformer語言模型,單詞聯想功能 可以非常快速地輸入下一個詞,甚至是完整的句子。
而這種極爲個性化的語言預測模型,也可以讓輸入法更加了解用戶的語言習慣,也能在用戶使用語音,輸入的時候大幅提高輸入的准確性。
全新的“手記”App伴隨iOS 17發布的,還有全新的“手記(Journal)”App,能夠利用設備上的機器學習技術,根據用戶的照片、音樂、鍛煉等信息爲您創建個性化的回憶和寫作建議。App會根據這些信息爲您提供適合您的時刻進行記錄和書寫的建議。
這意味着基於iPhone的算力,設備已經能夠部署本地化處理文字、圖片等多媒體內容的語義理解能力,同時具備一定的生成式AI功能。
場景與動作識別能力
除此之外,例如空間音頻的計算、眼球動作以及手部行爲的捕捉,這些也是人工智能技術所發力的領域,蘋果憑借着M2和R1兩顆芯片提供的算力支撐,實現了人工智能順利的本地化部署,充分體現了蘋果在消費電子領域人工智能應用的能力。
盡管在WWDC 2023上,蘋果並未過度強調其AI能力,但從產品功能的方方面面來看,其AI能力卻已經深入滲透到其產品的各個細節中,成爲改進用戶體驗的重要手段。作爲全球最具影響力的科技公司之一,盡管蘋果沒有過多宣傳其在人工智能方面的成就,但 你蘋果擅長一鳴驚人的產品風格來看,其在人工智能領域的實力仍然不容小覷。
本文作者可以追加內容哦 !
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。
標題:AR、AIGC、語言模型全线發力,蘋果Apple Vision Pro“出場即王炸”
地址:https://www.breakthing.com/post/65312.html