拡張現実(AR)は次なる大ブームです。少なくとも、ティム・クックはそう信じています。そして、そう考えているのは彼だけではありません。ARを次世代の偉大なコンピューティングプラットフォームとして期待する企業は数多くあります。Appleは数年前から、iPhoneとiPad向けのAR開発ツールを開発してきました。
ARは今やiPhoneやiPadで使える。なぜもっと大きな話題にならないのだろう?なぜ一般ユーザーはティム・クック氏ほどARの可能性に期待していないのだろう?なぜ私たちが普段使っているアプリは、ARをコア機能、あるいは必須機能にしようと躍起にならないのだろう?
スマートフォンやタブレットのARが普及することはまずないだろうというのが私の考えです。ARと呼べるかどうかはギリギリで、認知能力の限界とユーザビリティの課題を抱えており、その克服はほぼ不可能です。ARがその可能性を最大限に発揮するには、メガネという形で私たちに届けられる必要があります。
拡張現実の定義
AR の成功にはメガネが不可欠だと考える理由を説明する前に、拡張現実が具体的に何から構成されるのかについて、いくつかの基本ルールを設定する必要があります。
簡単に言えば、ARとはコンピューター生成グラフィックスを周囲の現実世界に融合させることです。ARは、現実世界の物体と正確に同じスケール、向き、位置、そして(ある程度は)照明を備えたオブジェクトやエフェクトを生成します。そして、私たちの現実の見え方が変化すると、仮想オブジェクトのスケール、位置、向きも変化します。ARグラフィックスは必ずしも リアルに見える必要はありませんが、リアルな場所に配置されているように見える必要があります 。
写真共有アプリの中には、「AR」と謳いながら、これらの基準を満たしていないギミックがいくつか存在します。多くの場合、ARはシーン内の任意の場所に3Dオブジェクトを配置するだけで、正確なスケール、位置、向きは考慮されていません。
ナイアンティックポケモンGOの初期のARモード(左)は、本当のARではありませんでした。しかし、本物のARが導入されたとき(右)、誰もあまり気にしませんでした。
例えば、Pokémon GOがリリースされた当初、ポケモンを捕まえるための「AR」モードは次のような仕組みでした。特定の方向を向くまで体を回転させると、ドアの上やパソコンのモニターの上などに小さな生き物が浮かんでいました。その後、この機能は「真の」ARモードにアップデートされ、地面の位置を検出し、生き物が正しいスケールと向きで配置されます。生き物の周りを動き回って、様々な視点から眺めることができます。近づくと、生き物は大きくなり、現実世界の特定の位置に固定されます。
スマホのARなんて誰も気にしない
ポケモンGOは、スマートフォンのAR(拡張現実)が実際にどれほど人々の関心を引かなかったかを示す好例と言えるでしょう。主流メディアでは常に「拡張現実ゲーム」と謳われていましたが、ポケモンGOの人気を決定づけたのは位置情報に基づいたゲームプレイでした。いわゆるARモード(当初はそうではありませんでしたが)は常にオプションであり、ほとんどのプレイヤーはバッテリー節約のためにオフにしていました。
ポケモンGOに 本物のARモードが搭載され、生き物を捕まえられるようになった今、人々は感銘を受けているのでしょうか? 主流メディアは、その没入感と驚異的な性能を称賛しています。プレイヤーは皆、ARモードを再びオンにしたのでしょうか?
いや、いや、いや。誰も気にしない。プレイヤーは依然としてARモードを無効にしている。
Snapchatの踊るホットドッグにしろ、Pokémon GOにしろ、スマートフォンの画面に表示される拡張現実は、単なる気の利いたおもちゃに過ぎないと思われています。そして、この状況は今後も続くでしょう。
ARの鍵は現実
拡張現実(AR)には、世界を変えるほどの大きな可能性があります。考えてみてください。現実世界が目の前に広がり、そこにコンピューターグラフィックスが組み込まれた世界。これはほぼあらゆるものに役立ちます。旅行、建設業、工場作業、ソーシャルメディアや出会い系アプリ、地図作成、天体観測、ショッピング(オンラインと実店舗)、おもちゃ、ゲームなど、ARはあらゆるものに革命をもたらすでしょう。その応用範囲は実に無限です。
しかし、スマートフォンのARは現実に映し出されたコンピュータグラフィックスではありません。画面に映し出されたコンピュータグラフィックスに、いわば現実の映像を重ね合わせたものです。これは昔からありました。テレビでも毎日のように見受けられます。自分の目で実際の現実を見ることと、平面の2D画面に映し出された現実の描写を見ることの間には、大きな隔たりがあります。
スマートフォンでARを使うとき、私たちは現実の広い視野を見ていることになります。その視野の小さな長方形の部分に、現実のリアルタイム映像が再生されているのです。この映像は、スマートフォンから目までの位置や距離に必ずしも正確には対応しておらず、画面全体に広がる私たちの目に見える色、ダイナミックレンジ、焦点を反映していません。現実に見えないのは、それが現実ではないからであり、私たちがその周囲に現実を見通せるからです。そして、私たちの頭や目が微妙に動いても、スマートフォン上の映像はそれに追従しないため、私たちの脳は騙されません。
スマートフォンベースのARは改善の余地あり
スマートフォンのAR(拡張現実)はますます進化しています。噂によると、今年発売されるiPad ProとハイエンドiPhoneの背面カメラには「Time-of-Flight(飛行時間型)」センサーが搭載され、ARに必要な3D深度情報をより迅速に生成できるようになるとのことです。写真撮影もいくつかの点で向上するでしょうが、これはARとは関係ありません。
これは、ARメガネが広く普及するための必要なステップかもしれません。開発者がAR関連製品を開発するためのツールやソフトウェアの開発を支援する上で、これはおそらく不可欠です。しかし、ARを私たちの日常生活の一部にするのは、これだけではありません。スマートフォンがどれだけAR機能を向上させても、私たちの脳は、見ているものが現実ではないと認識するには、依然として信号が多すぎるのです。
りんごスマートフォン(またはタブレット)の AR がどれほど優れていても、手持ちの物体の画面上のカメラを通して現実世界を見ることは常に可能です。
私たちは依然として、腕で持ち上げた、目の前の少し離れたスクリーンを見つめている。そのスクリーンに映る「現実世界」は、鮮明さ、明るさ、焦点、遠近感といった点で、スマートフォンの周囲に見える現実世界とは一致しない。私たちは小さな平らな長方形をタップしたりスワイプしたりすることで、スクリーンとインタラクトする。私たちの感覚は、ディスプレイ上のコンピューターグラフィックスが現実ではないだけでなく、「現実」自体も現実ではないという事実に苛まれることになる。
ARを正しく活用する
メガネやゴーグルを通してARを見るとき、私たちは現実世界、つまり現実世界の物体から反射する光子を実際に見ています。その上に3Dグラフィックスが重ねられています。頭が微妙に、あるいは大きく動くと、私たちの現実の見え方は予想通りに変化します。なぜなら、ARはコンピューターで生成されたものではなく、現実だからです。
眼鏡を通して見ていると、限られた「偽の」現実の窓の向こうにある本当の現実が見えません。そこにあるのは、私たちの周りの現実の世界だけです。
現在のARグラスは、コンピュータグラフィックスを含む部分の視野が限られています。これは普及を促進するために克服すべき課題の一つですが、完全に致命的な問題ではありません。なぜなら、現実世界の視野はそれほど狭くなく、偽のコンピュータグラフィックスオーバーレイの視野だけが限られているからです。これは、視界の全てが制限される仮想現実の視野の狭さとは異なります。
ARを本当に多くの人に使ってもらうには、メガネやゴーグルが必要です。現実世界の実際の視界の上にグラフィックを重ねて表示する必要があります。しかし、だからといってヘッドセットがMicrosoftのHoloLensのようなスタンドアロンのものである必要はありません。
アダム・パトリック・マレー / IDGHoloLens 2 は、その機能を考えると驚くほどコンパクトですが、十分にコンパクトというわけではありません。
最も可能性の高いシナリオは、透明なディスプレイと3Dセンシングハードウェアだけを搭載した、比較的コンパクトで軽量なメガネだと思います。このメガネの位置と向きのデータをスマートフォンに送信し、スマートフォンが適切なグラフィックを生成して視界に重ね合わせます。そして、そのグラフィックがメガネに送り返され、透明な画面に表示されます。
これらすべてが低遅延で実現されなければならないことを考えると、Apple初のARグラスに、耳の後ろからiPhoneのLightningポートに接続するケーブルが付属していても不思議ではないでしょう。iPhoneはポケットに入れたままでも構いませんが、AR環境と連携するためのポインティングコントローラーとして使うことにはメリットがあるかもしれません。
[自分用メモ: AR コントローラー用特許取得済み iPhone リストストラップ]
Magic Leapは、プロセッサコアに接続されたゴーグルと、別途コントローラーを使用しています。しかし、ゴーグルとケーブルは大きすぎるため、別途コントローラーが必要になるのは現実的ではありません。ユーザーはそれを常に持ち歩くわけではありません。iPhoneをプロセッサとコントローラーの両方として使うのは理にかなっています。
マジックリープMagic Leapは、大型のプロセッサユニットと独立したワイヤレスコントローラーに接続された大型ゴーグルを使用しています。一般消費者には扱いにくいサイズです。
最終的には、チップ製造とバッテリー技術の進歩により、十分な品質を備えた完全独立型ARグラスが、一般大衆に受け入れられるほど小型軽量化されるようになるかもしれません。HoloLens 2はその機能を考えると驚くほど小型ですが、何億人もの一般消費者にとっては依然として大きすぎます。
AppleのARグラスはいつ登場するのでしょうか?まだ分かりません。2020年に視覚ベースの製品をリリースするというマーケティングの機会は魅力的ですが、技術的にはまだ完成していないと想像しにくいです。「Apple Glasses」製品が2021年に登場というのはかなり大胆なスケジュールで、2022年か2023年の方が可能性が高いでしょう。克服すべき大きな技術的課題があり、価格も大幅に下げる必要があります。Magic LeapとHoloLens 2の価格は2,300ドルから3,500ドルですが、ハイエンドスマートフォンよりも高価であれば、AR製品が広く普及するとは考えにくいでしょう。