Appleがヘッドセット、いや、いや、空間コンピューターを発表してから1ヶ月、Vision Proについてはあまり書いていませんでした。それは、まだ自分で試していないという理由もありますが、Appleが最新デバイスで披露した膨大な技術を少しずつ消化しているからでもあります。
一方で、この製品カテゴリーにおける Apple の最終目標や、現在の技術で本当に軽量な拡張現実デバイスを実現できるかどうかについては、さまざまな理論が展開されてきた。
Vision Proについてじっくりと検討するうちに、Appleのこのデバイスにおけるストーリーは、実際に見せてくれたものと同じくらい、見せてくれなかったものによって形作られていることに気づきました。これは、Vision Proの発表ではあまり取り上げられなかったフィットネスやゲームといった大きなカテゴリーにも当てはまります。また、他のApple製品には既に搭載されているものの、Vision Proには明らかに欠けている、より小さな個別の機能にも当てはまります。しかし、これらの機能は、この分野の未来にとって理想的なもののように思えるのです。
両手と地図
AppleはVision Proに移植された既存アプリケーションをいくつかデモしましたが、披露されたものは明らかに特定の用途に特化したものでした。KeynoteやFreeformといった生産性ツール、音楽やTVといったエンターテイメントアプリ、FaceTimeやメッセージといったコミュニケーションツール、そして写真やマインドフルネスといった体験型アプリです。
Vision Pro のホーム画面に (私たちが知る限り) 存在しないツールが 1 つあります。それはマップです。

iPhone のマップでは、非常に優れた AR ウォーキング体験が楽しめます。
ダン・モレン
これは…奇妙というほどではないのですが(理由は後ほど説明します)、興味深いと感じます。なぜなら、マップはAppleが既に非常に優れた拡張現実(AR)インターフェースを開発している分野の一つだからです。iOS 15以降、AppleはARベースの徒歩ルート案内機能を導入しました。iPhoneをかざすと、カメラの映像に巨大なラベルが重ねて表示されます。もし見逃していたとしても、驚くことではありません。当初は数都市でのみ利用可能でしたが、ここ数年で世界80以上の地域に静かに拡大してきました。
つい最近になってようやく試してみたのですが、その便利さには感心しましたが、iPhoneを持ちながら歩き回らなければならないのが少し面倒でした。この機能はARグラスにこそぴったりだと確信したのですが、Vision Proにはどうやら見当たらないようです。
翻訳の失敗
SFファンなら誰でも、一度は『スタートレック』の万能翻訳機や『銀河ヒッチハイク・ガイド』のバベルフィッシュを憧れたことがあるだろう。それは、誰とでも瞬時に理解し、誰からも理解される目に見えないテクノロジーだ。(もちろん、多くの厄介なプロット上の問題を解決してくれるのも言うまでもない。)
Appleはここ数年、翻訳アプリやシステム全体の翻訳サービスの追加など、独自の翻訳技術を徐々に強化してきました。Googleほど広範囲ではないかもしれませんが、Appleの翻訳ソフトウェアは徐々に追い上げており、複数の言語で話している人を自動検出し、その言葉を翻訳して音声で再生できる会話モードも追加されています。

iPhone の翻訳アプリは Vision Pro に最適な機能です。
ダン・モレン
これは旅行に最適なキラーアプリであり、ARデバイスにまさにうってつけの機能と言えるでしょう。耳元で翻訳が聞こえたり、目の前のスクリーンに翻訳が表示されたりするのを想像してみてください。数年前、インドに長期滞在していた時のことです。今の妻のアパートのエアコンが壊れたので、妻に電話して、彼女の同僚にヒンディー語しか話せない修理担当者のために翻訳してもらう必要がありました。(公平を期すために言うと、当時Googleの同様の会話モードも試してみましたが、かなり面倒でした。)
しかも、会話だけに限りません。Appleのシステム全体の翻訳フレームワークは、写真内のテキストを翻訳する機能をすでに提供しており、翻訳アプリ自体にもライブカメラビューが搭載されています。つまり、海外でお店を回っているときに、目についた商品をその場で翻訳してもらうことも可能なのです。
見上げないで
Appleが近年開発した最も驚くべき機能の一つがVisual Lookupです。導入当初は、機械学習を活用して写真に写っているものを花、犬、ランドマークなど、いくつかのカテゴリーに分類していましたが、その結果は必ずしも一定ではありませんでした。しかしiOS 17では、Appleはこの機能を大幅に改良しました。信頼性の面だけでなく、食事の写真からレシピを検索したり、謎めいた洗濯表示記号を識別して解釈したりするなど、新たなカテゴリーが追加されました。
これこそが、私にとってARの真の夢です。何かを見て、それに関する情報を瞬時に引き出せるというのは、まるで世界全体への注釈付きガイドブックを持っているようなものです。さらに、これは軽量ARウェアラブルデバイスというアイデアにも完璧に合致する機能です。例えば、芸術作品を見てからスマートフォンに鼻を突っ込んで詳細を調べるのではなく、目の前にあるものを詳細に見ることができるのです。あるいは、興味深いものを実際の芸術作品に重ね合わせたり、融合させたりすることさえできるのです。

ヘッドセットでのビジュアル検索
理想的な組み合わせのようです。ダン・モレン
AppleはVision Proの発表でVisual Lookup機能を一切披露しなかったが、ここに新たな展開があるかもしれない。MacRumorsのSteve Moser氏がVision Proソフトウェア開発キットを詳しく調べたところ、「Visual Search」と呼ばれる機能の存在が明らかになった。これは、周囲の世界から情報を取得し、詳細情報を加えて拡張するという、Appleとほぼ同じ機能を実現するようだ。
一見すると、これらの機能がすべて省略されているのは、AppleがVision Proの使用シーンや使用時間について説明していることと合致しているように思えます。地図作成、翻訳、画像検索などは、外出時に最も役立つ機能ですが、Vision Proは基本的に持ち運ぶデバイスではなく、外出先で使うデバイスです。
Vision Pro を空間コンピューターと呼ぶことは、「ヘッドセット」や「メタバース」などの用語を避けるための話題性のある方法かもしれませんが、製品の本質も伝えています。つまり、これはまさにコンピューターの複合現実アナログであり、ほとんどの場合、固定された位置で使用されるものであることを考えると、ラップトップよりもデスクトップに近いと言えます。
しかし、ノートパソコン、タブレット、スマートフォンの登場によって、コンピューターの概念が机に座って使うものから、バッグやポケットに入れて持ち運ぶものへと進化したように、Appleが目指すのはVision ProのMacBookやiPhoneに相当するものであることは明らかです。Appleがそこに到達するのに、スマートフォンがデスクトップコンピューターから進化したのと同じくらいの時間はかからないことを願っていますが、最終的にVision ProとiPhoneが初代Macとで大きく異なるものになったとしても、驚かないでください。