返回博客
2026-03-27
Toolsify Editorial Team
AI Hardware

iPhone 17 Pro 示範運行 400B 大語言模型——這到底意味著什麼

iPhoneOn-Device AILLMAppleMobile AIiphone 17 pro demonstrated running a 400b llm
Sponsored

刷 AI 相關的社群媒體時間夠長,每週都能看到大膽的聲明。大多數很快就消失了。但當 ANEMLL 發布了一段影片,展示 iPhone 17 Pro 運行一個 4000 億參數的大語言模型時,人們確實注意到了——而且有充分的理由。

先說清楚這裡發生了什麼。這是一個示範,不是一個正在發布的產品功能。沒有人隨身攜帶一個隨意載入了 400B 模型的手機。但這個示範本身就說明了一些關於裝置端 AI 發展方向的重要資訊。

到底發生了什麼

ANEMLL 是一個專注於將 LLM 推理引入蘋果神經引擎的開源專案,他們在 X 上發布了一段影片,展示 iPhone 17 Pro 執行一個 400B 級別的模型。貼文迅速走紅,反應分成兩個陣營:認為這改變了一切的人,和認為這是毫無意義的表演的人。

真相介於這兩個極端之間。

iPhone 17 Pro 搭載蘋果 A19 Pro 晶片和 16 核神經引擎。Pro 型號的儲存選項最高可達 1TB。這些規格很重要,因為在手機上運行如此大的模型不僅僅是原始算力的問題——還涉及如何管理記憶體、儲存以及它們之間的資料流。

蘋果自己的研究團隊發表了一篇名為《LLM in a Flash》的論文,描述了在裝置可用 DRAM 有限的情況下運行模型的技術。核心思路是:將模型參數儲存在快閃記憶體中,按需獲取,而不是試圖一次性將所有內容載入到 RAM 中。

ANEMLL 的示範似乎正是基於這種思路。400B 模型幾乎肯定不是完全存在於手機記憶體中。它被串流傳輸、分塊或從儲存中選擇性啟用——這些技術使得標題中的數字成為可能,但並不意味著手機的行為像資料中心 GPU。

為什麼 400B 這個數字很重要(即使它有誤導性)

關於標題中的「400B」有一點:它具有巨大的象徵意義。大多數人實際使用的裝置端模型在 1B 到 7B 範圍內。跳到 400B 是一種聲明,即使實現細節意味著模型不是以全密度運行。

意義不在於「你的手機現在可以做伺服器做的事」。它做不到。意義在於,消費級硬體上實驗性可行的上限正在以比大多數人預期更快的速度上升。

誠實的注意事項

速度。一個示範在技術上有效和實際上無用可以同時存在。密度。在手機上運行的 400B 模型幾乎肯定使用了稀疏架構、混合專家路由、激進的量化或選擇性參數啟用。實用性。這是一個開源專案的概念驗證,不是蘋果認可的功能。電池和發熱。在這個規模上運行推理可能會快速消耗電池並產生大量熱量。

這實際上告訴我們關於裝置端 AI 的什麼

剝離炒作和注意事項,這裡有一個真實的訊號。

首先,蘋果的硬體堆疊正在成為本地 AI 實驗的嚴肅目標。其次,使極端示範成為可能的技術最終會滲透到使更小、更實用的模型變得更好。第三,AI 市場正在悄然分裂成兩個不同的問題:「可用的最大模型是什麼?」和「在消費級硬體上能有效使用的最大模型是什麼?」

接下來關注什麼

關注技術細節的公布、ANEMLL 生態系統的發展,以及蘋果自己的動向。目前,理解「iPhone 17 Pro 示範運行 400B LLM」最有用的方式是「手機能用 AI 做的事情的上限明顯提高了」。這值得關注,即使實際影響還需要幾個月或幾年才能顯現。

Sponsored