84
Visual Intelligenceを使ってiOS 26のスクリーンショットを分析する方法

Visual Intelligenceは、iOS 18の数少ないAI搭載機能の一つで、私たちが頻繁に活用しています。iPhone 16のカメラボタンを長押し(またはiPhone 15 Proのコントロールセンターから起動)、スマートフォンを何かに向けて、ボタンを押すだけです。

外国語の標識があれば翻訳できます。電話番号があれば、ワンタップで電話をかけられます。住所は?連絡先に追加するか、ナビゲーションで確認できます。お店や施設なら営業時間や連絡先、レストランならメニューまで表示してくれます。もちろん、様々な動植物、ランドマーク、有名な芸術作品なども識別できます。Appleの内蔵AIで情報が足りない場合は、「質問する」ボタンをタップしてChatGPTに質問することもできます。

一度存在を覚えたら、きっといつも使っているでしょう。本当に便利なのですが、一つ重大な制限があります。iOS 18では、スマートフォンのカメラで撮影できる範囲に制限されているのです。

iOS 26では、AppleはスクリーンショットインターフェースにVisual Intelligenceを組み込むことでこの問題を解決しました。これにより、どのアプリのスクリーンショットでも、同じAI搭載機能を利用できるようになります。ウェブページ、動画、ビデオゲームなど、スクリーンショットを撮れるものなら、Visual Intelligenceを活用できます。

スクリーンショットから始めましょう

Visual Intelligence は Apple Intelligence のコア機能であるため、常に iPhone 15 Pro または iPhone 16 (またはそれ以降) が必要です。

iOS 26でスクリーンショットを撮るには、いつも通り音量アップボタンとサイドボタンを同時に押すだけです。スクリーンショットのプレビューが、画面の隅に小さなサムネイルではなく、大きく表示されるようになりました。(設定 >一般>スクリーンキャプチャで変更できます。)

デフォルトではマークアップ モードになっている可能性があります。その場合は、画面上部の小さなペン アイコンをタップして、Visual Intelligence のオプションを表示します。

スクリーンショットのビジュアルインテリジェンス

スクリーンショットで Visual Intelligence を使用する方法は、カメラの場合とほぼ同じです。

左側には、スクリーンショットの内容についてChatGPTに質問するための「質問」ボタンがあります。右側には、Googleで逆画像検索を実行する画像検索ボタンがあります。これは、購入したいアイテムや誰かが着ている服を検索するのに最適です。

ビジュアルインテリジェンスのスクリーンショット
Visual Intelligence では、検出されたコンテンツに応じて、画面の下部にいくつかのオプションが表示されます。

鋳造所

中央には、スクリーンショットの内容に基づいたコンテキストオプションが表示されます。電話番号がある場合は、ワンタップで電話をかけるオプションが表示されます。住所がある場合は、マップで検索できます。長いテキストブロックの場合は、AIで要約するか、音声で読み上げるオプションがあります。目立つ植物、動物、ランドマークは自動的に認識され、ここに表示されます。軽くタップするだけで、それらに関する情報が表示されます。

ビジュアルインテリジェンススクリーンショット2
スクリーンショットの一部を丸で囲むだけで、AI がその部分だけに集中します。

鋳造所

もちろん、スクリーンショット全体を検索したくない場合もあるでしょう。特定の要素だけに焦点を当てるには、指で囲むだけです。「質問」ボタンをタップすると、そのオブジェクトについてのみChatGPTに質問が送信されます。中央には、囲まれた領域のみのコンテキストオプションが表示されます。もちろん、Google画像検索は、画像の中でハイライトした部分のみに焦点を絞ります。

ビジュアルインテリジェンススクリーンショット3
Visual Intelligence を使用すると、カレンダー イベントの追加や住所の検索などをすばやく行うことができます。

鋳造所

本当にこれだけです。iOS 26では、iPhone 15 Pro以降であれば、スクリーンショットでこれらのVisual Intelligence機能が自動的に有効になります。マークアップモードになっていないこと(ペンアイコンをタップ)と、設定でApple Intelligenceが有効になっていることを確認してください。