🚚iOS 本地 AI 專題:為什麼我想寫?為什麼你該上車?
Apple Intelligence 給你的印象不佳?覺得 Apple 在 AI 方面落後許多?這系列文章會讓你改觀。特別寫給看到 AI 變化迅速而擔心自己跟不上的 iOS 開發者,告訴你怎麼切入本地 AI 這個 iOS 才有的好機會。
Apple 平台老早就有許多 Machine Learning 的產品功能,也提供了許多 API。
有些模型,甚至小到可以在 Apple Watch 上執行。
但是我對於這些 AI 功能一直興趣缺缺。雖然它們可以做到不少事情,卻跟我想做給使用者的功能或體驗毫不相干。
近兩年,LLM 發展突飛猛進,我也絲毫沒有想要在 App 中加入 AI 功能的念頭。
那麼,是什麼引起了我的興趣,讓我覺得值得動筆撰寫一系列文章介紹 Apple 的本地 AI 功能呢?
答案是 Apple 在 2025 年 9 月推出的兩樣新東西:Foundation Models 與 iPhone 17 Pro Max。我玩過之後感覺到:在 iPhone 上跑 AI 有意思!
讓我簡介一下:
Foundation Models
Foundation Models,是 Apple 自家開發的語言模型,小到能在 iOS 設備上迅速執行。它不是拿來做 ChatGPT 這種對話型 AI 服務的等級,但對於強化 iOS App 使用者體驗,有著很實際的應用方式。
我認為它最了不起的地方,是大幅降低開發者入門 LLM 型 AI 功能的開發門檻。簡單到像喝口水。
只要你的設備有開啟 Apple Intelligence(繁體中文隨著 iOS 26.1 的推出而開始支援)、再加上幾行程式碼,就可以執行。
它可以讓你的 App 更有人性,或是讓使用者更容易輸入複雜的資訊,還有一堆我先不破梗的玩法。
重點是,它是個離線、本地運行、不用開發者另外下載的模型!不管再強大的 AI,如果只能連網使用,就不可能完全取代離線模型。
A19 Pro 打敗 M3 Max
iPhone 17 Pro 系列採用 A19 Pro SoC,其中的 GPU 搭配了「神經網路加速器」。
所以,當我拿 iPhone 17 Pro Max 跟 MacBook Pro M3 Max(30 核心 GPU)同時跑了 Foundation Models,發現 iPhone 的速度明顯更快。
我都懷疑是自己眼花了。
這可是 iPhone 打敗次頂規 MacBook Pro,而且核心才差兩個世代而已。
具體數字與測試方式我會在之後的文章介紹。但是你可以看出一個事實:Apple 的硬體跑本地 AI 大有可為,而且還會越來越好。
有意思在哪裡?
我們有時候會笑 Tim Cook 愛講的那句「Only Apple Can Do」。但是一個 App 能夠在大量裝置上跑出一樣的本地 AI 功能效果,應該真的只有 Apple 的硬體能辦得到。
這種一致體驗的追求,在硬體規格碎片化的 Android、Windows,根本辦不到。
再加上產品的普及率、系統內建多個離線資料庫種種因素,開發者在 Apple 平台上投入研發的報酬更有機會實現。
那麼問題來了,究竟 Apple 在 AI 研究方面是真的落後其他大廠,還是它已經打下基礎作為最佳的本地 AI 應用平台、iOS 開發者大有可為?也許兩者皆是。
無論如何,雖然 Apple Intelligence 推出一年多以來,表現不令人印象深刻,但是我認為在 iPhone 上執行 AI 應用的時代已經到來。
我打算怎麼寫?
從 Foundation Models 開始,關於 Apple 硬體上執行 AI 功能,我已經想到至少 20 篇的主題,有事實描述、操作教學、觀點分析、問題討論,以及 Apple 動向的推測。
如果順利的話,我會在 2025 年 12 月份連載所有的篇章。
部分主題內容我之前就稍有研究,像是 Foundation Models、MLX。有些則需要在寫出來之前徹底搞懂,所以我是邊寫邊學。
我不敢說自己寫出來的知識就一定正確,我也不是 AI 專家。但是,求知的過程與方法一定會公開,而且我認為這些才是本系列專題的精華。
結語
Foundation Models、iPhone 17 系列、A19 晶片都很新,我認為絕大部分的 iOS 開發者都沒有意識到它們的真正意義。
這促使我想寫文章分享出來,也是記錄自己的學習路線。
我們會實際上手 Foundation Models、語法相容套件、MLX,能夠直接體驗到 Apple 硬體的 AI 運算能力。
親自動手體驗是說服自己「這真的有料」的最佳方式。
當然,我們也會碰到許多現實與限制。這些問題討論起來很有意思,我還會預測 Apple 可能怎麼應對。這種分享思路型的文章,應該會令人讀得津津有味。
心動了嗎?好好期待接下來一個月的連載吧。