美元换人民币  当前汇率7.27

为何 M1 能用 Apple Intelligence 而更快的 A16 却不能?

* 来源 : * 作者 : admin * 发表时间 : 2024-06-12
根据知名苹果分析员郭明錤的最新报告指出,搭载 A16 芯片的 iPhone 15 并不支援 Apple Intelligence,但使用 M1 芯片的设备却可以支援。这一现象表明,能否支援 Apple Intelligence 的关键在于 DRAM 大小,而非 AI 算力 (TOPS)。

M1 与 A16 的比较
M1 芯片的 AI 算力约为 11 TOPS,低于 A16 的 17 TOPS。然而,A16 的 DRAM 为 6GB,低于 M1 的 8GB。因此,目前的 Apple Intelligence 装置端 AI LLM 对 DRAM 的需求约为 2GB 或更低。

DRAM 需求的验证
DRAM 需求可以通过另一种方式来验证。Apple Intelligence 采用装置端 3B LLM(应为 FP16,M1 的 NPU/ANE 对 FP16 有很好的支持),经过压缩后(采用 2-bit 与 4-bit 的混合配置),随时需要预留约 0.7-1.5GB DRAM 来运作 Apple Intelligence 的装置端 LLM。

进一步的分析与结论
若要透过 AI 强化既有装置端应用,至少需部署装置端 3B LLM,并以此为基础再根据压缩方式决定 DRAM 规格。微软认为 AI PC 的关键规格是 40 TOPS 算力,但对 Apple 而言,搭配云端 AI(Private Cloud Compute),装置端有 11 TOPS 的算力已足够开始提供装置端 AI 应用。

Apple 的销售优势
消费者若欲购买微软的 AI PC 可能会感到困惑,因为还需要自行计算是否达到 40 TOPS。而 Apple 则是直接告诉消费者哪些机型可以支援 Apple Intelligence。无论装置端 AI 应用能否满足消费者需求,Apple 在销售上一开始就具有明显优势。

未来展望与市场影响
未来 Apple Intelligence 的装置端 AI 肯定也会升级(最有可能升级到 7B LLM),届时需要更大 DRAM 才能运作。Apple 是否会以此作为高低阶机种的产品区隔策略值得观察。使用者体验是否如 Apple 宣称的那么美好仍需观察,因为在宣传上曾经有过言过其实的错误案例。

竞争对手与市场趋势
Samsung S24 的 AI 功能有限,微软的 AI PC 目前仍让消费者感到困惑。但 Apple 成功定义了装置端 AI,至少消费者已清楚知道 Apple 的 AI 装置功能丰富且有哪些卖点。这会加速竞争对手的模仿与追赶,并进而带动装置端 AI 相关产业的快速成长。