2021年後半、Appleは児童性的虐待コンテンツ(CSAM)に関するいくつかの新機能を発表しました。その一部は厳しい批判にさらされ、Apple社員を含む一部の人々から激しい反発を招きました。今年後半に導入されるこの新技術について、知っておくべきことをご紹介します。
AppleとCSAMスキャン:最新ニュース
2022年12月8日: Appleは物議を醸していた写真スキャン機能を廃止することを決定した。
2022 年 4 月 21 日:メッセージの会話の安全性機能が英国に導入されますが、タイムラインはまだ発表されていません。
2021年12月15日: AppleはウェブサイトからCSAMシステムに関する記述を削除しました。Appleによると、CSAM機能は依然として「延期」されており、キャンセルされたわけではないとのことです。
2021年12月14日: AppleはiOS 15.2公式アップデートでメッセージアプリの会話安全機能をリリースしました。CSAM機能はリリースされていません。
2021年11月10日: iOS 15.2 beta 2には、メッセージアプリに比較的物議を醸していない「会話の安全性」機能が搭載されています。この機能はデバイス上で画像をスキャンしますが、画像を既存のデータベースと照合せず、保護者のアカウントが有効化しない限り有効になりません。これはCSAMとは異なります。詳細はこちらをご覧ください。
2021年9月3日: Appleは、iOS 15、iPadOS 15、watchOS 8、macOS 12 MontereyにおけるCSAM機能のリリースを年内後半まで延期すると発表しました。これらの機能はOSアップデートの一部として提供されます。
2021年8月24日: Appleは9to5Macに対し、画像マッチング技術を使ってすでにiCloudメールをスキャンしてCSAMを検出していることを確認した。
2021年8月19日:約100の政策・権利団体が、Appleに対しiOS 15にシステムを実装する計画を中止するよう求める公開書簡を発表した 。
2021年8月18日:AppleのCSAM技術のベースとなっているNeuralHashシステムが偽装されたとの報告を受けて、Appleはシステムは「説明どおりに動作する」と述べた。
2021年8月13日:ウォール・ストリート・ジャーナルのジョアンナ・スターン氏とのインタビューで、ソフトウェアエンジニアリング担当シニアバイスプレジデントのクレイグ・フェデリギ氏は、Appleの新技術は「広く誤解されている」と述べた。フェデリギ氏はさらに、システムの仕組みについて以下のように説明した。Appleはまた、メッセージの安全機能とCSAM検出機能に関する詳細を記載した文書も公開した。
基本
Apple が展開しているテクノロジーとは何ですか?
Appleは、メッセージ、iCloudフォト、Siriと検索の3つの領域で新しいCSAM対策機能を展開する予定です。Appleによると、それぞれの実装方法は以下の通りです。
メッセージ:メッセージ アプリは、デバイス上の機械学習を使用して、子供と保護者にデリケートなコンテンツについて警告します。
iCloud フォト:画像が iCloud フォトに保存される前に、デバイス上で既知の CSAM ハッシュと照合する処理が行われます。Apple はこの機能をデバイスに実装しないことを決定しました。
Siri と検索: Siri と検索では、お子様と保護者がオンラインで安全に過ごし、危険な状況で助けを得られるよう、追加のリソースが提供されます。
システムはいつ届きますか?
Appleは9月初旬、このシステムはiOS 15、iPadOS 15、watchOS 8、macOS 12 Montereyの秋リリースでは利用できないと発表しました。これらの機能は、今年後半のOSアップデートで利用可能になる予定です。

新しい CSAM 検出ツールは、今年後半に新しい OS とともに提供される予定です。
りんご
なぜ今システムがリリースされるのですか?
ウォール・ストリート・ジャーナルのジョアンナ・スターンとのインタビューで、クレイグ・フェデリギ氏は、iOS 15でリリースする理由は「私たちがそれを理解したからだ」と語った。
CSAMスキャン
スキャン技術によって、Apple が私の写真を見ることができるようになるのでしょうか?
正確にはそうではありません。Appleはこの技術について次のように説明しています。クラウドで画像をスキャンする代わりに、システムは全米行方不明・被搾取児童センター(NCMEC)などの児童保護団体が提供する既知のCSAM画像ハッシュのデータベースを用いて、デバイス上で照合を行います。Appleはさらにこのデータベースを判読不能なハッシュ値に変換し、ユーザーのデバイスに安全に保存します。Appleの説明によると、このシステムは「特定の既知の」画像のみを厳密に探しています。Appleの従業員は、ハッシュ値がタグ付けされた写真のみを閲覧でき、それも一定の基準を満たした場合のみ閲覧できます。
でも、Apple は私のデバイス上の写真をスキャンしているんですよね?
はい、そしていいえ。このシステムは多面的です。まず、AppleはiCloudフォトを無効にしているユーザーには機能しないとしていますが、スキャンがiCloudフォトにアップロードされた画像のみに行われるのか、それともすべての画像がスキャン・比較されるものの、スキャン結果(ハッシュの一致の有無)はiCloudフォトにアップロードされた写真と一緒に送信されるだけなのかは完全には明らかではありません。フェデリギ氏は「クラウドはアルゴリズムの残りの半分を実行する」ため、写真はデバイス上でスキャンされますが、完全に機能するにはiCloudが必要です。フェデリギ氏は、このシステムは「文字通りiCloudに画像を保存するためのパイプラインの一部である」と強調しました。
https://www.youtube.com/watch?v=nmu4JpZUvBY
システムが CSAM 画像を検出するとどうなりますか?
このシステムはNCMECが提供するCSAM画像ハッシュのみを扱うため、iCloudフォトでCSAMであることが確認されている写真のみを報告します。一定の閾値(フェデリギ氏によると「30程度」)を超えるCSAMが検出された場合、Appleは人間によるレビューを実施し、NCMECへの報告を行うかどうかを判断します。Appleによると、法執行機関への自動報告は行われていませんが、あらゆる事例を適切な当局に報告するとのことです。
システムが私の子供の実際の写真を CSAM と誤認する可能性はありますか?
極めて低い確率です。システムは既知の画像のみをスキャンするため、Appleによると、システムが特定のアカウントに誤ってフラグを立てる可能性は年間1兆分の1未満です。万が一そのような事態が発生した場合でも、当局にエスカレーションされる前に人間による確認で発見されます。さらに、アカウントが誤ってフラグ付けされ、無効化されたと思われる方のために、異議申し立ての手続きも用意されています。
しかし、8月の報告書は、このシステムが誤りを犯す可能性があることを示唆したようだ。GitHubユーザーのAsuharietYgva氏は、Appleが使用するNeuralHashシステムの詳細を説明したと報じられ、一方、ユーザーdxoigmn氏は、同じハッシュを生成する2つの異なる画像を使ってシステムを騙したと主張したようだ。これに対し、AppleはMotherboardに対し、使用されたのは「汎用バージョンであり、iCloudフォトのCSAM検出に使用される最終バージョンではない」と述べ、システムを擁護した。セキュリティ脅威を分析した文書の中で、Appleは「NeuralHashアルゴリズムは、署名されたオペレーティングシステムのコードの一部として含まれており、セキュリティ研究者はそれが説明どおりに動作することを検証できる」と述べている。
iCloud フォトの CSAM スキャンをオプトアウトできますか?
いいえ、iCloudフォトを無効にして、この機能が動作しないようにすることは可能です。無効にすることでAppleのデバイス内写真スキャンが完全にオフになるかどうかは不明ですが、スキャン結果(ハッシュの一致の有無)は、画像がiCloudフォトにアップロードされた時点でのみAppleに届きます。

りんご
メッセージ
Apple はメッセージ内の私の写真もすべてスキャンしているのでしょうか?
必ずしもそうではありません。Apple のメッセージアプリの安全対策は子供を保護するために設計されており、iCloud でファミリーとして設定された子供用アカウントでのみ利用できます。
それで、それはどのように機能するのでしょうか?
メッセージにおけるコミュニケーションの安全性は、iCloudフォトのCSAMスキャンとは全く異なる技術です。画像ハッシュを用いて児童性的虐待の既知の画像と比較するのではなく、機械学習アルゴリズムを用いてメッセージで送受信された画像を分析し、性的に露骨なコンテンツの有無を検出します。画像はAppleやNCMECを含む他の機関と共有されることはありません。これは、保護者が子供のアカウントで有効にできるシステムで、保護者自身(および子供)が性的に露骨なコンテンツを送受信しようとしている場合に警告を発することができます。
保護者はオプトアウトできますか?
保護者は、子供用に設定したアカウントで新しいメッセージ画像スキャン機能を明示的に有効にする必要があり、この機能はいつでも無効にすることができます。
iMessage は今後もエンドツーエンドで暗号化されますか?
はい。Appleによると、メッセージアプリのコミュニケーションの安全性は、メッセージに組み込まれているプライバシー機能に影響を与えるものではなく、Appleがコミュニケーション情報にアクセスすることはありません。さらに、コミュニケーション、画像評価、介入、通知のいずれもAppleには提供されません。
性的に露骨な画像が発見された場合はどうなりますか?
保護者がお子様のアカウントでこの機能を有効にしている場合、お子様が性的に露骨な画像を送受信すると、写真にぼかしが入り、お子様には警告が表示され、対処法が提示され、写真の閲覧や送信を控えても大丈夫であることが伝えられます。12歳以下のお子様のアカウントでは、お子様が性的に露骨と判断された画像を確認・送信または閲覧した場合に、保護者が保護者への通知を送信するよう設定できます。
Siriと検索
Siri と検索の新機能は何ですか?
Appleは、Siriと検索を強化し、CSAMを報告するためのリソースを見つけやすくするとともに、お子様と保護者がオンラインで安全に過ごし、危険な状況で助けを得られるよう、Siriと検索のガイダンスを拡充しています。また、Siriと検索をアップデートし、ユーザーがCSAMに関連する検索クエリを実行した際に介入するよう対応します。Appleによると、介入には、このトピックへの関心が有害で問題のあることをユーザーに説明し、この問題に関する支援を受けるためのパートナーからのリソースを提供することが含まれます。
論争
では、なぜ人々は怒っているのでしょうか?
Appleのシステムの範囲は適切に制限されていると多くの人が同意しているものの、専門家、監視団体、プライバシー擁護団体は、悪用される可能性を懸念している。例えば、NSAによる世界的な監視プログラムを暴露し、現在亡命生活を送っているエドワード・スノーデン氏は、「どんなに善意があっても、Appleはこれで全世界に大規模な監視を展開しようとしている。誤解しないでほしい。今日児童ポルノをスキャンできるなら、明日は何でもスキャンできるのだ」とツイートした。さらに、電子フロンティア財団はこのシステムを批判し、ジョンズ・ホプキンス大学の暗号学教授であるマシュー・グリーン氏は、Appleが使用しているシステムの悪用の可能性について説明した。
https://twitter.com/matthew_d_green/status/1423093801699135488
AppleがiPhoneのCSAM画像をスキャンするためにデバイスを利用することで、iPhoneに搭載されているプライバシーを犠牲にしているのではないかと懸念する声もあります。他の多くのサービスがCSAM画像をスキャンしていますが、Appleのシステムは、クラウドにアップロードされた画像ではなく、デバイス上でマッチングを行うという点で独特です。
CSAM システムを使用して他の種類の画像をスキャンすることはできますか?
現時点ではそうではありません。Appleは、このシステムはCSAM画像をスキャンすることのみを目的として設計されていると述べています。しかし、理論的にはハッシュリストを拡張して、LGBTQ+コンテンツなど、他のコンテンツに関連する既知の画像を検索することも可能ですが、Appleは繰り返し、このシステムはCSAMのみを対象としていると説明しています。
Apple は他のアプリやサービスをスキャンしていますか?
Appleは最近、自社サーバー上で画像マッチング技術を用いてiCloudメールをスキャンしていることを確認しました。ただし、iCloudバックアップと写真はこのシステムの対象ではないと主張しています。なお、iCloudメールはAppleのサーバー上で暗号化されていないため、画像スキャンの方が容易です。
政府が Apple に他の画像のスキャンを強制したらどうなるでしょうか?
アップルはそのような要求を拒否すると述べている。

りんご
他の企業も CSAM 画像をスキャンしますか?
はい、Dropbox、Google、Microsoft、そしてFacebookを含むほとんどのクラウドサービスには、CSAM画像を検出するシステムが導入されています。これらはすべて、クラウド上で画像を復号化してスキャンすることで動作します。
メッセージテクノロジーは間違いを犯すことがありますか?
フェデリギ氏は、このシステムを騙すのは「非常に難しい」と述べている。しかし、Appleがメッセージシステムを騙すための画像を用意するのに「苦労した」と述べつつも、完全に騙せるわけではないことを認めた。
Apple が CSAM 検出システムの実装を阻止される可能性はあるでしょうか?
断言は難しいが、新技術の導入前と導入後に法廷闘争が起こる可能性は高い。8月19日、90以上の政策・人権団体がAppleに対し、このシステムの廃止を求める公開書簡を発表した。「これらの機能は、子どもを保護し、児童性的虐待コンテンツの拡散を抑制することを目的としていますが、保護された言論の検閲に利用され、世界中の人々のプライバシーと安全を脅かし、多くの子どもたちに悲惨な結果をもたらすことを懸念しています」と書簡は述べている。