更新: Apple には、この新しい機能とその仕組みについて説明した「子どもの安全」ページがあります。
TechCrunchは、AppleがiCloudにアップロードされた写真に児童性的虐待コンテンツ(CSAM)が含まれていないかスキャンする新技術を近々導入することを確認しました。この技術は、Appleの製品とサービスを子供たちにとってより安全に利用してもらうための一連の技術の一環として、今年後半に導入される予定です。
ほとんどのクラウドサービスでは、既にCSAMを含む利用規約や法律に違反するコンテンツがないか画像をスキャンしています。これは、画像が暗号化されて保存されている場合でも、企業が暗号化キーを保有しているためです。Appleのサービスは、送信中の写真を暗号化して保存しますが、必要に応じて復号するための復号キーを保有しています。例えば、iCloudに保存されているデータを召喚状に基づいて提供する場合や、iCloudの写真をウェブブラウザで利用できるようにする場合などです。
ユーザーのプライバシー保護のため、AppleはNeuralHashと呼ばれる新しい技術を採用しています。この技術は、iCloudフォトにアップロードされた画像をチェックし、児童虐待画像の既知のデータベースとの一致を探します。この技術はiPhone、iPad、Mac上で動作し、写真を一意の文字と数字の文字列(「ハッシュ」)に変換します。通常、写真にわずかな変更を加えるとハッシュは異なりますが、Appleの技術では、切り抜きなどの小さな変更を加えても同じハッシュが得られると言われています。
これらのハッシュは、デバイス上で児童性的虐待画像のハッシュデータベースと照合されます。ハッシュの照合は目に見えない形で行われるため、基になる画像が何であるかは不明であり、ユーザーに警告を発することもありません。照合結果は、一定の基準を満たした場合にAppleにアップロードされます。Appleは、照合された画像を復号化し、手動で内容を検証し、ユーザーのアカウントを無効化することができます。その後、Appleは画像を全米行方不明・被搾取児童センター(NCMIS)に報告し、NCMISセンターはそれを法執行機関に引き渡します。
つまり、AppleがあなたのiPhoneに保存されている画像をランダムに閲覧できる可能性は極めて低いということです。TechCrunchによると、Appleは誤検知の可能性は1兆分の1だと述べており、自分のアカウントが誤ってフラグ付けされたと考える人のために異議申し立ての手続きも用意しています。この技術はあくまでもオプションであり、iCloudフォトを使用する必要はありませんが、使用している場合はこの機能を無効にすることはできません。
Appleは、このNeuralHashテクノロジーの詳細を説明した技術論文を公開しました。この新技術は、iOS 15、iPadOS 15、macOS Montereyの一部として今秋にリリースされる予定です。
著者: Jason Cross、Macworld シニアエディター
ジェイソンは25年以上にわたりテクノロジー関連の記事を執筆しています。最初はゲーム関連のメディアで執筆し、その後はエンスージアスト向けPCやテクノロジー全般に注力してきました。複雑なテクノロジーの仕組みを学び、それを誰にでも分かりやすく説明することを楽しんでいます。