AIの信頼性に懐疑的なiPhoneユーザーは、AppleのAI技術がクラウド経由ではなくデバイス上で動作する可能性が高いと聞いて喜ぶかもしれない。少なくとも当初は。
ブルームバーグの記者マーク・ガーマン氏は、今週のPower OnニュースレターのQ&Aコーナーでこの事実を明らかにしました。「世界中がAppleの6月10日(WWDC)のAI発表を待ちわびている中、最初の一連の機能は完全にデバイス上で動作するようです」とガーマン氏は述べました(MacRumors経由)。「つまり、新機能の基盤となるソフトウェアであるAppleの大規模言語モデルには、クラウド処理コンポーネントが存在しないということです。」
しかし、iPhone には、Google の Gemini や Baidu の ERNIE Bot など、他社の技術を活用したクラウドベースの AI 機能が搭載される可能性もある。
それでも、これは朗報と言えるでしょう。テクノロジー企業がモバイルデバイスからリモートクラウドサーバーファームへの計算負荷のオフロードを好む理由は容易に理解できます。バッテリーの消耗や過熱の可能性を減らし、タスクに投入できる処理能力を向上できるからです。しかし、ユーザーにとっては、インターネット接続の品質という新たな障害点が生じます。(実際には、Appleのサーバーもダウンする可能性があるため、障害点は2つあります。しかし、こちらはそれほど心配するほどではありません。)
例えばSiriは、以前は日常的なタスクを実行するのにインターネット接続が必要だという悪名高い機能でした。この記事の筆者も、HomePodに特定の曲を再生するように指示したにもかかわらず、Siriが聞き間違えて別の曲を再生してしまうことが何度もありました。そして、何度も「再生をやめて」と指示しても、Siriがオンラインに接続できずに音声認識ができないために電源を切ろうとしません。これは非常にイライラさせられるものです。
2021年のiOS 15以降、Appleは賢明にもSiriのより基本的で頻繁に使用される機能の一部をiPhoneに戻し始めました。今ではSiriでタイマーの設定、アラームの作成、システム設定の調整など、オフラインでも様々な操作が可能です。もしこれがiOS 18のAI機能の大部分にも適用されるなら、それは大きな勝利と言えるでしょう。
今年 Apple デバイスに搭載されるすべての新機能については、定期的に更新される WWDC 2024 ガイドをご覧ください。
著者: David Price、Macworld編集者
デビッドは20年以上テクノロジーについて執筆しており、2007年の最初のiPhoneの発売を取材した際にAppleの熱狂に乗った。彼は熱心なApple Watchの伝道師であり、HomePodは誤解されていると感じている。