![]()
画像: IDG
Appleは今年初め、iPhoneユーザーの写真をスキャンすることでCSAM(児童性的虐待素材)の可能性があるものを検出する新しいシステムを発表しました。しかし、大きな騒動が起きたため、Appleはこのシステムの導入を2021年後半まで延期しました。そして今、このシステムの導入は、もしかしたらもう少し先になるか、あるいは全く実現しない可能性が高まっています。
iOS 15.2で多面的な子どもの安全対策の一環としてメッセージ機能をリリースしてからわずか数日後、AppleはApple.comからCSAMスキャン技術に関するすべての言及を削除しました。Macrumorsが報じたところによると、以前の「子どもの安全」に関するウェブページは現在、メッセージ機能のコミュニケーション安全に関するサポートページへのリンクになっています。Appleはこの機能は依然として「延期」されており、キャンセルされたわけではないとしていますが、自ら設定した2021年の期限には間に合わないことは明らかです。
AppleのCSAM検出に関する発表は、発表直後から論争を巻き起こしました。このシステムは、ユーザーのiPhoneに搭載された画像をスキャンし、全米行方不明・被搾取児童センター(NCMIS)のデータベースに登録されている認識可能なハッシュ値を検索します。そして、そのハッシュ値を既知のCSAMハッシュリストと照合します。一致した場合、写真はiCloudにアップロードされた後、Appleの担当者によって審査されます。CSAMが含まれている場合、アップロードした人物は関係当局に通報されます。
この機能に反対する議論は、主に他の用途にも応用できるのではないかという点に集中しています。例えば、政府はAppleに対し、政府の政策に影響を及ぼす可能性のある画像をチェックするための同様のプロセスを設けるよう要求できるでしょう。また、スキャンはiPhone本体で行われているものの、結果が表示されるのは写真がiCloudにアップロードされてからであることへの懸念も表明されています。
AppleはiOS 15.2で、ヌードを含む写真を送受信する際に子供と保護者に警告を表示する新しいメッセージ機能を発表しました。これは当初の発表にも含まれていました。提案されていたCSAMスキャンとは異なり、この機能はデフォルトでオフになっており、保護者はファミリー共有の一環として明示的にオプトインする必要があります。Siriと検索機能も、潜在的なCSAMを検出しようとする際に警告を表示します。
更新 午後 12 時 10 分 (東部標準時): Apple によると、この機能はまだ延期されているが、キャンセルされたわけではないとのこと。
著者: マイケル・サイモン、Macworld編集長
マイケル・サイモンは20年以上にわたりAppleを取材しています。iPodがまだiWalkだった頃からSpymacで噂を取材し始め、Appleがこれまでに製造したほぼ全てのiPhoneを所有しています。妻と息子、そして数え切れないほどのガジェットと共にコネチカット州に住んでいます。