蘋果 WWDC23 不提“人工智能”,更傾向使用“機器學習”
1年前


$蘋果(NASDAQ|AAPL)$公司在周一的 WWDC 2023 主題演講中,除了發布了備受期待的 Mac Pro 和 Vision Pro 等新產品外,還展示了其在機器學習領域的最新進展。不過猛獸財經注意到,與微軟和谷歌等競爭對手大力宣傳生成式人工智能不同,蘋果公司在演講中並沒有提及“人工智能”這個詞,而是更多地使用了“機器學習”和“ML”這樣的術語。

例如,在 iOS 17 的演示中,軟件工程高級副總裁 Craig Federighi 介紹了自動糾錯和語音識別的改進:

【自動糾錯是由設備上的機器學習驅動的,多年來,我們不斷地提升這些模型。鍵盤現在利用了一種 transformer 語言模型,這是目前最先進的詞預測技術,使得自動糾錯比以往更加准確。而且,借助 Apple Silicon 芯片的強大性能,iPhone 可以在你每次按下一個鍵時運行這個模型。】

值得注意的是,蘋果公司在其主題演講中提到了人工智能領域的一個術語“transformer”。該公司具體談到了一種“transformer 語言模型”,這意味着其人工智能模型使用了 transformer 架構,這是近期許多生成式人工智能所使用的底層技術,例如 DALL-E 圖像生成器和 ChatGPT 聊天機器人。transformer 模型(一個於 2017 年首次提出的概念)是一種用於自然語言處理(NLP)的神經網絡架構,採用了自注意力機制,使其能夠優先處理序列中不同的單詞或元素。其能夠並行地處理輸入,從而顯著提高了效率,並在 NLP 任務中取得了突破性的進展,如翻譯、摘要和問答。

據蘋果公司介紹,iOS 17 中的新 transformer 模型可以實現句級別的自動糾錯,當你按下空格鍵時,它可以完成一個單詞或整個句子。還會根據你的寫作風格進行學習,從而指導其建議。蘋果公司還表示,語音識別“採用了一種基於 transformer 的語音識別模型,利用神經引擎使語音識別更加准確”。

在主題演講中,蘋果公司還多次提到了“機器學習”,比如在描述新 iPad 鎖屏功能(“當你選擇一張 Live Photo 時,我們使用一種先進的機器學習模型來合成額外的幀”);iPadOS PDF 功能(“利用新的機器學習模型,iPadOS 可以識別 PDF 中的字段,讓你可以使用自動填充功能快速填寫信息,比如從你的聯系人中獲取的姓名、地址和電子郵件等。”);AirPods 自適應音頻功能(“通過個性化音量,我們使用機器學習來了解你的收聽偏好隨時間的變化”);以及 Apple Watch 小部件功能 Smart Stack(“Smart Stack 使用機器學習在你需要的時候向你展示相關信息”)。

蘋果公司還推出了一款叫做 Journal 的新應用,可利用設備端機器學習提供個性化建議,爲用戶帶來日記靈感。這些建議根據用戶近期活動智能生成,包括照片、人物、地點、體能訓練等,幫助用戶更輕松地开始記錄。

最後,在演示 Vision Pro 頭顯時,該公司透露,用戶眼睛上的動態圖像是由掃描你的臉部創建的一個特殊的 3D 頭像 —— 當然,這也是機器學習的功勞。


追加內容

本文作者可以追加內容哦 !

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。



標題:蘋果 WWDC23 不提“人工智能”,更傾向使用“機器學習”

地址:https://www.breakthing.com/post/65320.html