今週、Samsung Galaxy S23 Ultraがいわゆる「偽の」月写真を撮影したというニュースを目にした方もいらっしゃるかもしれません。S20 Ultra以降、SamsungはSpace Zoomと呼ばれる機能を搭載しており、10倍光学ズームと超高倍率デジタルズームを組み合わせ、合計100倍のズームを実現しています。マーケティング用の写真では、Samsungは同スマートフォンがほぼクリスタルのように鮮明な月写真を撮影する様子を公開しており、ユーザーも晴れた夜に同様の撮影をしています。
しかし、Redditユーザーによって、Samsungの驚異的なSpace Zoomにはちょっとしたトリックが使われていることが証明されました。月の写真を撮る際、SamsungのAIベースのシーンオプティマイザーが、まるでスマートフォンではなく高解像度の望遠鏡で撮影されたかのように見せるために、膨大な処理を行っているのです。そのため、誰かが月を撮影する際(空であれ、Redditの投稿のようにコンピューター画面上であれ)、Samsungの計算エンジンが処理を引き継ぎ、カメラが捉えきれなかったクレーターや輪郭を鮮明に再現してくれるのです。
続く投稿では、サムスンが実際に写真に「月」の画像を追加して鮮明な画像に仕上げていることを、疑う余地なく証明しています。説明によると、「コンピュータービジョンモジュール/AIが月を認識し、ユーザーが写真を撮ると、無数の月の画像でトレーニングされたニューラルネットワークが、光学的に捉えられなかったディテールを補完します」とのことです。これはサムスンが示唆しているよりも少し「偽物」っぽいですが、それでも十分に予想できるものです。
調査をしなくても、S23が月を自然に鮮明に撮影できないことは明らかです。SamsungはS23 UltraのSpace Zoom撮影で「驚異の330フィート(約100メートル)の距離から撮影可能」と謳っていますが、月は地球から約234,000マイル(約37万キロメートル)、つまり約1,261,392,000フィート(約38万メートル)離れています。しかも、地球の4分の1の大きさです。スマートフォンは、330フィート(約100メートル)以上離れた高層ビルの鮮明な写真を撮るのに何の問題もありません。
もちろん、月までの距離だけではすべてを説明できません。月は基本的に暗い背景に置かれた光源なので、鮮明な画像を撮影するにはカメラの助けが必要です。Samsungは次のように説明しています。「月の写真を撮る際、Galaxyデバイスのカメラシステムは、ディープラーニングベースのAI技術とマルチフレーム処理を活用し、細部をさらに鮮明化します。高品質な月の画像を実現するための複数のステップ、プロセス、そしてテクノロジーについて、詳しくは以下をお読みください。」
これは、ポートレートモード、ポートレートライティング、ナイトモード、マジック消しゴム、顔ぼかし解除といった機能とそれほど変わりません。いずれも計算的認識を用いて、存在しないものを追加、調整、編集しているのです。月の場合、SamsungのAIは月の見え方を知っているため、まるで素晴らしい写真を撮っているかのように見せることが容易です。空が青すぎたり、芝生が緑すぎたりすることがあるのも同じ理由です。写真エンジンは、自分が知っていることを視覚的に捉えたものに適用することで、ハイエンドカメラを模倣し、スマートフォンによくある欠点を補っているのです。
ここでの違いは、写真撮影アルゴリズムでは画像を複数の部分に分割し、それぞれに異なる調整と露出制御を適用するのが一般的であるのに対し、サムスンは月面では限定的な形式の AI 画像生成も使用して、カメラデータには最初から含まれていなかった詳細をブレンドしている点です。しかし、地球から見ると月の詳細は常に同じに見えるため、それを知る人はいないでしょう。

サムスンによれば、S23 Ultraのカメラはシーンオプティマイザーの「ディープラーニングベースのAI詳細強化エンジンを使用して、残留ノイズを効果的に除去し、画像の詳細をさらに強化します」。
サムスン
Appleはどうするのでしょうか?
Appleは今年、iPhone 15 Ultraに初めてペリスコープズームレンズを搭載すると噂されており、この論争は間違いなくAIのトレーニング方法に影響を与えるだろう。しかし、計算エンジンが今と同じように、舞台裏でかなりの重労働をこなすことは間違いないだろう。
スマートフォンのカメラがこれほど優れているのは、まさにこの点にあります。コンパクトカメラとは異なり、スマートフォンには強力な頭脳が搭載されており、より良い写真を撮影したり、下手な写真をより良く見せたりすることができます。夜間の写真を明るい光の下で撮影したように加工したり、超高速絞りを備えたカメラのボケ効果を再現したりすることも可能です。
そして、この技術こそが、Appleが6倍光学カメラで20倍、あるいは30倍ズームを実現し、驚異的な結果をもたらすのです。Appleはこれまで天体写真には手を出さなかったため、iPhone 15でより鮮明な写真を撮影するために、高解像度の月の写真をサンプリングするとは思えません。しかし、Photonic Engineがエッジの補正、ディテールの保持、そして望遠カメラの性能向上に全力を尽くすことは間違いありません。そして、iPhone 14 Proに搭載されている技術を見れば、その結果はきっと素晴らしいものになるでしょう。
サムスンであれアップルであれ、コンピュテーショナル・フォトグラフィーはここ数年で大きな飛躍的進歩をもたらしてきましたが、その可能性はまだほんの表面をかすめたに過ぎません。どれも現実のものではありません。もし現実のものだったら、スマートフォンで撮る写真に私たちは今ほど感動することはなかったでしょう。