昨年、Appleは複数の分野における児童性的虐待対策への取り組みを発表しました。iOS 15.2では、メッセージアプリに新しいペアレンタルコントロール機能を実装し、子供が性的画像を見たり送信したりすることを防ぎ、Siriと検索を強化して、被害者となる可能性のある子供たち向けのリソースを提供しました。しかし、最も物議を醸した機能、つまりiCloudにアップロードされる写真をスキャンし、既知の児童性的虐待素材(CSAM)と一致するかどうかを調べる機能は、延期されました。
Appleはユーザーのプライバシーが保護され、政府機関などの外部機関がAppleに反体制派などの写真をスキャンさせるような技術を利用できないようにするための大きな措置を講じましたが、プライバシー保護団体の間では多くの懸念が高まりました。発表された瞬間から、人々は「大量監視」の可能性と、Appleがスキャンに使用できるシステムを運用することを許可することへの懸念を示しました。
水曜日、ウォール・ストリート・ジャーナルのインタビューで、Appleのソフトウェアエンジニアリング担当シニアバイスプレジデント、クレイグ・フェデリギ氏は、CSAMスキャン機能が廃止されたことを確認した。iOSには昨年から他の機能が実装されている。フェデリギ氏は、「児童性的虐待は発生前に防ぐことができます。私たちは今後、そこに注力していきます」と述べた。
AppleはWiredへの声明で、次のように詳しく説明しました。「iCloudフォト向けに以前提案したCSAM検出ツールについても、開発を中止することを決定しました。企業が個人データを精査しなくても、子どもたちは保護されます。私たちは今後も政府、児童擁護団体、そして他の企業と協力し、若者の保護、プライバシー権の確保、そして子どもたちにとって、そして私たち全員にとってインターネットをより安全な場所にしていきます。」
システムが技術的なハードルに直面した可能性もある。Appleは水曜日、写真アプリを含むiCloudデータのほとんどにエンドツーエンドの暗号化オプションを提供すると発表したが、これによりCSAMスキャンの適切な実装が困難になった可能性もある。
著者: Jason Cross、Macworld シニアエディター
ジェイソンは25年以上にわたりテクノロジー関連の記事を執筆しています。最初はゲーム関連のメディアで執筆し、その後はエンスージアスト向けPCやテクノロジー全般に注力してきました。複雑なテクノロジーの仕組みを学び、それを誰にでも分かりやすく説明することを楽しんでいます。