6 月 24 日更新: Daring Fireball の John Gruber が、Private Cloud Compute が Apple Intelligence の全機能を制御できない理由を説明します。
月曜日のWWDC基調講演でAppleがApple Intelligenceの主要機能のデモをご覧になった方は、この秋にiPhoneでこの新サービスが使えるようになることを想像していたかもしれません。しかし、デモが終わると、多くのiPhoneユーザーは、自分のiPhoneではApple Intelligenceが使えないことを知り、落胆しました。Apple Intelligenceは、最新かつ最も高価なiPhone以外では利用できないのです。
2020年以降のMacとiPadはApple Intelligenceの恩恵を受けられますが、iPhoneシリーズのサポートは15 Proと15 Pro Maxに限定されています。つまり、数ヶ月前に発売されたAppleの最新モデル2機種、現在も販売中の旧モデル、そしてiPhone SEは対象外となります。
iPhone 15とiPhone 15 Plusに搭載されているA16チップは十分に高速なので、これは奇妙な決定のように思えるかもしれません。しかし、ミンチー・クオ氏の新たなレポートが状況を浮き彫りにしています。クオ氏が指摘するように、A16チップのニューラルエンジンのパワーはM1チップよりも実際には高く(17兆演算/秒対11 TOPS)、要件はNPUに関するものではなく、メモリに関するものです。A16チップのRAMは6GBですが、Apple Intelligenceをサポートするすべてのデバイスは少なくとも8GBのRAMを搭載しています。
彼はさらに詳しく説明します。「DRAMの需要は別の方法で検証できます。Apple Intelligenceはデバイス上の3B LLM(M1のNPU/ANEはFP16を適切にサポートしているため、FP16であるはずです)を使用します。圧縮後(2ビットと4ビットの混合構成を使用)、Apple Intelligenceのデバイス上のLLMを実行するには、常に約0.7~1.5GBのDRAMを確保する必要があります。」
Daring Fireballで、ジョン・グルーバー氏は、十分なメモリを搭載していないデバイスが、ほとんどのタスクでプライベートクラウドコンピューティングを使用できない理由を次のように説明しています。「デバイス上で実行されるモデルは、クラウドで実行されるモデルとは全く異なります。そして、そうしたデバイス上のモデルの1つは、どのタスクがデバイス上で処理可能で、どのタスクがプライベートクラウドコンピューティングやChatGPTを必要とするかを判断するヒューリスティックです。」また、次世代デバイスは「オクルージョンや物体検知などのリアルタイム処理のために、R1チップを補完するためにM2のニューラルエンジンを既に大幅に活用している」ため、Vision ProにApple Intelligenceが搭載されないと述べています。
これまで噂されていた通り、iPhone 16の全モデルは8GBのRAMを搭載するとのことですが、Apple Intelligenceの要件に基づくと、これはほぼ確実です。Kuo氏はまた、Apple Intelligenceが「おそらく70億LLM」に進化するにつれて、将来のデバイスは16GBのRAMから始まると予測しています。OnePlus 12やXiaomi 14など、一部のスマートフォンはすでに16GBのRAMを搭載しています。
プログラマーの場合、状況は少し悪化します。Appleのドキュメントによると、Xcode 16の新しい予測コード補完AIを利用するには、16GBのRAMを搭載したApple Silicon Macが必要です。
Apple Intelligenceは今秋のiOS 18でリリースされる時点ではまだベータ版ですが、それでもiPhone 16の目玉機能になるとの報道もあります。
著者: マイケル・サイモン、Macworld編集長
マイケル・サイモンは20年以上にわたりAppleを取材しています。iPodがまだiWalkだった頃からSpymacで噂を取材し始め、Appleがこれまでに製造したほぼ全てのiPhoneを所有しています。妻と息子、そして数え切れないほどのガジェットと共にコネチカット州に住んでいます。