76
iOS 15.2の写真スキャンによる子供の安全機能は(まだ)あなたの写真をスキャンしません

8月にAppleは、iPhoneユーザーを児童虐待者から保護し、Appleの技術とサービスが児童性的虐待素材(CSAM)の拡散に使用されることを減らし、未成年者を望まない性的コンテンツから保護することを目的とした2つの新機能を発表した。

発表された機能は2つありました。iCloud写真のCSAMスキャンと、メッセージアプリ内の性的コンテンツを監視するペアレンタルコントロール機能です。CSAMスキャン機能はプライバシー擁護者から大きな論争を巻き起こし、Appleはユーザーのプライバシー保護を強化するためのソリューションの改善に取り組むため、最終的に全体のリリースを年内後半まで延期しました。

最新のiOS 15.2ベータ版には2つ目の機能が含まれていますが、物議を醸している1つ目の機能は含まれていません。CSAM写真スキャン機能は、iCloudにアップロードされた写真ライブラリ内の画像をデバイス上でスキャンし、児童性的虐待画像の既知のデータベースとの一致を確認します。スキャン結果は、一定の基準を超えるまでAppleにも非公開で、基準を超えた時点で全米行方不明・被搾取児童センター(NCMEC)に連絡されます。

Appleは、安全なハッシュ値のみをiCloudサーバーに渡すデバイス上でのマッチングは、競合他社の多くでこの種の素材を扱うクラウド内処理よりもプライバシーとセキュリティが確保されていると主張した。しかし、プライバシー擁護派は、デバイス上の写真をスキャンするシステムは、悪意のある人物や政府機関による悪用につながる可能性があると警告している。

Appleメッセージ詐欺

Apple の会話の安全性機能は、メッセージ内の「閲覧に機密性がある」可能性のある写真にフラグを立てます。

りんご

一方、iOS 15.2 ベータ2の新機能は、メッセージアプリの「会話の安全性」機能で、それほど物議を醸すものではありません。これもデバイス上で画像をスキャンしますが、画像を既存のデータベースと照合せず、保護者のアカウントが有効化しない限り有効になりません。

親アカウントがお子様のアカウントでこの機能を有効にすると、メッセージアプリで送受信されるすべての画像がヌードや性的コンテンツの有無をスキャンされます。ヌードや性的コンテンツを含む画像を受信した場合は、ぼかし処理が行われ、お子様には対処方法を示すポップアップで警告が表示されます。その後、お子様は写真を閲覧するかどうかを選択できます。

当初の構想では、13歳未満のお子様の保護者には、そのような画像が閲覧された場合、自動的に通知が届くことになっていました。しかし、一部のお子様が危険にさらされる可能性があると批判的な声が上がったため、Appleは自動通知を削除し、代わりに年齢に関わらず、お子様が希望すれば信頼できる大人にメッセージを送信できる機能を追加しました。これは、画像を閲覧するかどうかの判断とは別に行われます。

この機能は、親アカウントによって明示的に有効にされていない限り画像をスキャンせず、いかなる種類の情報も Apple またはその他の第三者に送信されません。

しかし、CSAMスキャンは間もなく導入される。Appleが予定通り導入すれば、次期ベータ版(おそらく15.3)で写真スキャン機能が再導入され、再び論争が巻き起こるだろう。しかし今のところ、iOS 15.2の会話の安全性機能は、親を不安にさせるほどではなく、子供たちがより良い判断を下すのに役立つかもしれない。しかも、Appleが実際に写真をスキャンするわけではない。

著者: Jason Cross、Macworld シニアエディター

ジェイソンは25年以上にわたりテクノロジー関連の記事を執筆しています。最初はゲーム関連のメディアで執筆し、その後はエンスージアスト向けPCやテクノロジー全般に注力してきました。複雑なテクノロジーの仕組みを学び、それを誰にでも分かりやすく説明することを楽しんでいます。