8月の最初の発表からずっと後、そしてまだリリースされていないコンポーネントをめぐるかなりの論争を経て、Appleは、子どもを性的コンテンツの送受信から守るために設計されたiPhone機能を英国に拡大する。
メッセージにおけるコミュニケーションセーフティ機能は、12月のiOS 15.2ポイントアップデートでようやくリリースされました。しかし、これまでは米国のみでの提供でした。ガーディアン紙は、Appleがこの機能を英国にも導入する計画を発表したと報じましたが、時期は依然として不明です。
お子様のデバイスでこの機能を有効にすると、デバイス上のAIツールがメッセージで受信したすべての写真にヌードが含まれていないかスキャンします。ヌードが見つかった場合、画像はぼかされ、センシティブな内容が含まれている可能性があるという警告と、役立つリソースへのリンクが表示されます。同様に、このツールはお子様が送信した写真もスキャンし、ヌードが検出された場合は、その写真を送信せず、大人に連絡するようアドバイスします。
「メッセージアプリは画像添付ファイルを分析し、写真にヌードが含まれているかどうかを判断しますが、メッセージのエンドツーエンドの暗号化は維持されます」とAppleは説明しています。「この機能は、ヌードの検出がデバイスから一切伝わらないように設計されており、Appleはメッセージにアクセスできず、保護者やその他の誰にも通知は送信されません。」
プライバシー保護団体からの反発を受け、この機能は当初の計画から縮小されました。当初の構想では、13歳未満の子供が送受信した画像にヌードが検出された場合に自動的に通知される保護者向けオプションが含まれていました。しかし、保護者による暴力や虐待のリスクが懸念されたため、Appleはこの項目を削除しました。現在、この機能では、子供が画像を見るかどうかとは別に、信頼できる大人にメッセージを送信できるようになり、子供が選択しない限り保護者には通知されません。
一連の児童安全機能は、当初昨年のiOS 15ソフトウェアアップデートの一部として導入される予定でした。これには、iCloudにアップロードされた写真をハッシュを使ってスキャンし、既知の児童性的虐待素材データベースと比較する物議を醸したAIツールも含まれていました。AppleはCSAMコンポーネントの導入を昨年末に延期し、未だ実装されていません。
これは私にとって何を意味するのでしょうか?
この機能はiOS 15.2から有効になっているため、米国の読者はこのニュースの影響を受けません。メッセージアプリの通信安全機能が2か国目に拡大されるのであれば、Appleは今回の結果に安心し、米国で撤回してこの機能を削除する可能性は低いと推測できます。この機能はメッセージアプリで受信した画像にのみ影響し、お子様のフォトライブラリに保存されている写真はスキャンされません。
英国にお住まいのお子様がいる読者の皆様は、お子様のスマートフォンでこの機能を有効にするオプション(デフォルトでは無効)が間もなく利用可能となり、性的なコンテンツを含む可能性のあるコンテンツがないかデバイス上でスキャンできるようになります。ただし、前述の通り、スキャン結果は自動的に保護者と共有されることはありません。この機能を有効にする場合は、デジタルコンテンツ共有の「すべきこと」と「すべきでないこと」に関するより広範な議論の一環として検討することをお勧めします。
著者: David Price、Macworld編集者
デビッドは20年以上テクノロジーについて執筆しており、2007年の最初のiPhoneの発売を取材した際にAppleの熱狂に乗った。彼は熱心なApple Watchの伝道師であり、HomePodは誤解されていると感じている。