Appleは金曜日、児童性的虐待コンテンツ(CSAM)の拡散を阻止するために発表した3つの機能が、iOS 15、iPadOS 15、watchOS 8、macOS 12 Montereyの秋リリースでは利用できないと発表しました。同社はCSAM機能を「今年後半のアップデート」で利用可能にする予定です。
Appleはプレスリリースで、「このプログラムは野心的なものであり、子どもたちを守ることは重要な責任です。これらの取り組みは今後進化し、拡大していく予定です」と述べています。
Appleは8月初旬にCSAM機能を発表しました。テクノロジーコミュニティでは多くの関係者がAppleの子供保護への取り組みを称賛する一方で、CSAM機能を支える技術が他の監視目的に利用される可能性について懸念を表明する声も上がっていました。90以上の政策・人権団体が公開書簡を発表し、Appleに対しCSAM機能の廃止を求めました。
論争を巻き起こした主な機能はCSAM検出機能です。デバイス上の画像からハッシュをスキャンし、そのハッシュを既知のCSAMハッシュのリストと照合します。この機能に反対する主張は、他の用途にも実装できるというものです。例えば、政府がAppleに対し、政府の政策に影響を及ぼす可能性のある画像をチェックするための同様のプロセスの作成を要求する可能性があります。
Appleは、そのような状況ではそのような要求を拒否すると述べたが、この声明は関係者の間で信頼を築くことはできなかった。政府は命令に従わなかった場合に常に何らかの結果をもたらすことができ(そして実際にそうするだろう)、その結果Appleが方針を変更する可能性もある。AppleがCSAM以外の独自の目的でこの技術を利用する可能性もあるが、そうなればユーザーのプライバシーを重視する企業としてのAppleのイメージが損なわれるだろう。
遅延される他の 2 つの CSAM 機能は次のとおりです。
- メッセージ通信の安全性:メッセージ アプリは、デバイス上の機械学習を使用して、子供と保護者に機密コンテンツについて警告します。
- Siri と検索:これらの機能は、お子様と保護者がオンラインで安全を確保し、危険な状況で助けを得るための追加リソースを提供します。
CSAM 検出に関する FAQ には、これらの機能の仕組みや発生した論争など、機能に関する詳細情報が記載されています。
著者: ロマン・ロヨラ、Macworld シニアエディター
ロマンはMacworldのシニアエディターで、30年以上にわたりテクノロジー業界を取材し、MacをはじめとするAppleエコシステム製品を中心に活躍しています。Macworld Podcastのホストも務めています。彼のキャリアはMacUserで始まり、Apple認定修理技術者(当時はAppleがそのような制度を設けていた)として認定されました。MacAddict、MacLife、TechTVでも活躍しています。