Appleは「人工知能」や「AI」という言葉をあまり使いたがらず、より一般的な「機械学習」という用語を使うことが多い。しかし、ML、AI、あるいは何と呼ぼうとも、それはApple製品、特にiPhoneのあらゆるところに根付いている。写真アプリ、カメラ、キーボード、Siri、ヘルスケアアプリなど、様々なアプリで使われている。
しかし、AIは目に見えない形で使われていることが多いようです。フォトアプリが人物の写真をグループ化しているとき、私たちは顔認識について意識しません。シャッターボタンを押すたびに、こんなに小さなカメラセンサーとレンズシステムから素晴らしい写真を撮るために、AIがどれほどの役割を果たしているのか、私たちには想像もつきません。
iPhoneのAIの真に分かりやすい例をお探しなら、拡大鏡アプリをぜひお試しください。特に、物体検出モードがおすすめです。iPhoneを物体に向けると、その物体の説明と、通常は位置が表示されます。これらはすべてデバイス内蔵のAIによって行われます。さあ、試してみましょう。
拡大鏡で検出モードを有効にする
まず、拡大鏡アプリを開きます。iPhone 15 Proではコントロールセンターまたはアクションボタンに追加されているかもしれませんが、Appライブラリや検索で見つけることもできます。
このアプリは、拡大表示や細かい文字の読み取りを支援するため、また視覚障碍者の方々の補助として設計されています。私は食品パッケージの小さな原材料名を読むのにいつも使っています。
そこから、右端の括弧ボックス(LiDAR搭載のiPhoneの場合)をタップし、左側の吹き出しボタンをタップします。LiDAR非搭載のiPhoneの場合は、吹き出しボタンのみが表示されます。ボタンが表示されない場合は、ズームスライダーを上にスワイプすると表示されます。

鋳造所
これで検出モードになります。設定ギアで、指しているもののテキスト表示と音声説明のどちらかを選択できます。
AIの働きを見る
さあ、iPhoneを何かに向けてみましょう!視界にあるものすべてにテキストオーバーレイが表示されます。動物、物、植物など、何でも構いません。更新にほんの一瞬かかることもあり、少し間違っていることもあります(時には笑ってしまうほど間違っていることもありますが)。しかし、ここで表示される画像分析は素晴らしいです。色だけでなく、位置や動きを表す形容詞も表示されます。
これをチェックしてください:

鋳造所
それは単に猫であるだけでなく、眠っている猫であること、そして単にベッドにいるのではなく、ペット用ベッドであることを認識しました。
次の例では、ヘッドフォン (白)、その位置 (黒い表面上)、および検出された別のオブジェクト (コンピューター モニターの隣) との関係を説明できることに注目してください。

鋳造所
もちろん、時々間違えることもあります。これはガラスのテーブルではなく、ガラスのボウルです。背景の椅子がわかりにくかったのかもしれませんし、面や角度が多すぎてボウルの形を判別できなかったのかもしれません。

鋳造所
しかし、屋内でも屋外でも、この機能が捉えているものをいかに正確に描写できるかには、いつも驚かされます。そして、ここで問題なのは、この機能は完全にデバイス上で動作するということです。冗談抜きで、iPhoneを機内モードにしてみても、同じように動作します。クラウドに動画フィードを送信しているわけではないので、あなたがどこにいて何をしているのか、誰にもわかりません。
この物体検出と記述の精度は、クラウド上の巨大サーバー上で実行されるAIルーチンと比べるとそれほど高くありません。膨大な処理能力と巨大な物体認識モデルを必要とし、より多くの時間がかかります。大手IT企業は長年にわたり、クラウドコンピューティングモデルによってこれを上回る性能を発揮してきました。
しかし、これは比較的小さな機能の一つに過ぎず、最近のiPhone、たとえ数年前のモデルであっても、簡単に動作します。これは、AppleがAI分野でどのような能力を発揮できるか、そしてより優れたコードとさらなるトレーニングによって、私たちのプライバシーとセキュリティを尊重しながら、将来iPhoneがどのような機能を発揮できるかを示す素晴らしい例です。