2021年初頭、Appleはオンラインでの性的搾取から子供を守るための一連の機能を発表しました。中にはデバイス上で動作する機能もあり、例えば、メッセージアプリで子供のアカウントが性的写真を見たり送信したりできないようにするペアレンタルコントロールなどです。しかし、最も物議を醸したのは、iCloudにアップロードされる写真をスキャンするシステムでした。
このシステムは、画像の固有ハッシュ値と既知のCSAM(児童性的虐待資料)の固有ハッシュ値との一致のみを比較することでプライバシーを保護することを目的としていました。しかしながら、プライバシー擁護団体からは、例えば国家機関がAppleに反体制派の画像の発見を強制するなど、悪用される可能性があるとして、厳しく批判されました。また、一部の児童安全専門家は、このシステムは既存のデータベースの画像しか照合できず、新たに作成されたCSAMは照合できないため、堅牢性が不十分だと考えています。
Appleは、チャイルドセーフティ機能のこの部分の実装を延期し、昨年12月にひっそりとプロジェクトを中止したことを認めた。Appleは、iCloudの画像をスキャンするシステムの開発ではなく、デバイス上で動作し、子供を犯罪者から守る安全機能に注力すると述べた。
現在、Apple は以前の論理を繰り返しながら、その決定を擁護している。
Heat Initiativeと呼ばれる児童保護団体は、Appleに対し、iCloudから児童性的虐待画像を「検出、報告、削除」するよう圧力をかけるキャンペーンを展開していると発表した。Appleはこの動きに対し、Wiredへの声明で反論した。同社は昨年12月と基本的に同じ主張を繰り返した。「CSAMはひどいものであり、対策を講じる必要があるが、オンライン写真をスキャンすることで、あらゆるユーザーのプライバシーを侵害する悪用可能なシステムが構築されてしまう」と。
すべてのユーザーがプライベートに保存しているiCloudデータをスキャンすると、データ窃盗犯が発見して悪用するための新たな脅威ベクトルが生まれます。また、意図しない結果につながる危険な状況に陥る可能性もあります。例えば、ある種類のコンテンツをスキャンするだけで、大量の監視が可能になり、他の暗号化メッセージングシステムも様々な種類のコンテンツを検索したいという欲求が生じる可能性があります。
Appleのユーザープライバシーおよび子供の安全担当ディレクター、エリック・ノイエンシュワンダー氏
つまり、iCloud CSAM スキャン機能が初めて発表された際にプライバシー擁護団体が述べたことを Apple は (再び) 認めていることになる。つまり、すべての人の安全とプライバシーを危険にさらす可能性のあるシステムを作成しなければ、この機能を実現する方法はないということだ。
これは、古くから続く暗号化に関する議論における、最新の軋みに過ぎません。ユーザーのプライバシーを完全に保護する唯一の方法は、ユーザーまたはその受信者以外が「閲覧」できない方法でデータを暗号化することです。これは無実の人々と犯罪者を等しく保護するため、当然のことながら、法執行機関、諜報機関、その他の組織は、それぞれ独自の理由でユーザーデータを検索しようとしており、これに反対しています。
Appleは、CSAM(性的マイノリティ)やその他の形態の児童虐待の防止は極めて重要だと考えていますが、Apple(または他の団体)がユーザーデータを閲覧できないような方法で実施する必要があります。デバイス上でのヌード画像の検出と非表示機能は、Appleがここ数年のOSアップデートで拡張してきた機能の一つです。
著者: Jason Cross、Macworld シニアエディター
ジェイソンは25年以上にわたりテクノロジー関連の記事を執筆しています。最初はゲーム関連のメディアで執筆し、その後はエンスージアスト向けPCやテクノロジー全般に注力してきました。複雑なテクノロジーの仕組みを学び、それを誰にでも分かりやすく説明することを楽しんでいます。