先週、Appleが児童性的虐待コンテンツ(CSAM)に関する一連の機能をiOSに追加すると突然発表したことで、全く予想通りの反応が引き起こされた。いや、より正確に言えば、複数の反応があったと言えるだろう。法執行機関側はAppleの取り組みを称賛し、人権擁護団体側はAppleがiPhoneを監視デバイスに変えていると非難した。
Appleの発表が厳しい批判にさらされるのは全く驚くべきことではありません。今回の件で驚くべきことがあるとすれば、Appleが発表に対する反発を全く予想していなかったように見えることです。同社は対応策として「よくある質問」ファイルを公開せざるを得ませんでした。発表後によくある質問がFA(よくある質問集)で回答されているなら、おそらく発表は失敗したと言えるでしょう。
https://www.youtube.com/watch?v=nmu4JpZUvBY
このような発表は精査に値する。この問題について辛辣な意見を述べようとする人々にとって問題なのは、それが極めて複雑で、簡単な答えがないことだ。だからといってAppleのアプローチが根本的に正しいとか間違っているとかいうわけではないが、Appleが検討と議論に値するいくつかの選択をしたということは言える。
アップルの妥協
Appleがなぜこのタイミングでこの技術を導入したのか、私にはよく分かりません。Appleのプライバシー担当責任者は、準備が整っていたからだと示唆していますが、それは少し言い逃れです。Appleはどの技術を優先するかを選択する必要があり、今回この技術を優先したのです。AppleはCSAMのスキャンを求める法的要件を見越しているのかもしれません。iCloudのセキュリティ機能強化に取り組んでおり、そのためにこのアプローチが必要になったのかもしれません。あるいは、CSAMの流通を阻止するために、Appleがさらなる対策が必要だと判断しただけかもしれません。
Appleの動機を最も深く理解する手がかりは、この機能の実装方法の非常に特殊な点です。長々と説明するのは避けますが、簡単に言うと、Appleは画像を、全米行方不明・被搾取児童センター(NCMIS)が収集した違法画像のハッシュと比較しているのです。iCloudフォトに同期される新しい画像をスキャンしているのです。デバイス上のすべての写真をスキャンしているわけではありませんし、Apple自身もiCloudサーバーに保存しているすべての写真をスキャンしているわけではありません。
つまり、AppleはデバイスとiCloudの間にCSAM検出機能を構築したのです。写真をiCloudに同期しない限り、この検出機能は作動しません。

CSAM チェックは、iPhone の写真ライブラリではなく、iCloud にアップロードされた画像に対して行われます。
IDG
これらすべてを踏まえると、Appleがクラウドサービスをより安全かつプライベートなものにするための、もう一つの仕掛けがあるのではないかと私は考えています。もしこのスキャンシステムが、CSAMの拡散を防ぐという道義的義務を放棄することなく、ユーザーのプライバシーをより高めるためのトレードオフだとしたら、素晴らしいことです。しかし、Appleが発表するまでは真相は分かりません。今のところ、これらの潜在的なプライバシー向上はすべて理論上のものです。
スパイはどこにいる?
Appleは近年、デバイス上で行われるユーザーデータの分析は、クラウド上で行われる分析よりも根本的にプライバシーが確保されていると考えていることを明確にしています。クラウドでは、データを分析するには復号化する必要があるため、あらゆる分析に利用される可能性があります。適切なレベルのアクセス権限を持つ従業員であれば、データをざっと閲覧することも可能です。しかし、こうした分析がすべてデバイス上で行われる場合(Appleの最新チップには、この処理を実行するための強力なNeural Engineコンポーネントが搭載されています)、データは外部に漏れることはありません。
Appleの今回のアプローチは、これらすべてに疑問を投げかけており、今回の発表に対する最大の批判の一部は、まさにこの点にあると私は考えています。Appleはプライバシー強化につながると考えて決断を下しているのです。Appleでは誰もあなたの写真をスキャンしていませんし、誤検知の可能性を減らす閾値を超えるまでは、CSAM画像の可能性さえAppleは見ることができません。あなたのデータを見ることができるのはあなたのデバイスだけです。これは素晴らしいことです。なぜなら、私たちのデバイスは神聖であり、私たちのものだからです。
ただし…これからは、私たちのデバイス上でデータを監視するアルゴリズムが実行されるようになります。そして、もし何か問題が見つかった場合、インターネットに接続してそのデータをAppleに報告します。このアルゴリズムは現在、CSAM(不正アクセス防止)のために特別に設計されており、iCloudフォトライブラリの同期をオフにするだけで無効化できますが、それでも一線を越えたような気がします。デバイスは私たちのために働くだけでなく、違法行為の兆候を監視し、当局に通報するようになるのです。
ここでAppleが直面するリスクは甚大だ。デバイス上での行動とプライバシーを同一視することに膨大な時間を費やしてきたAppleだが、スマートフォンがもはや私たちの城ではなくなったという認識によって、その努力が水の泡になってしまう恐れがある。
重要なのはツールではなく、どのように使うかだ
多くの点で、これは現代のテクノロジー業界が直面する最大の課題のもう一つの側面です。テクノロジーは非常に重要かつ強力になったため、あらゆる新たな発展は社会全体に甚大な影響を及ぼします。
Appleは、デバイス内蔵のCSAMスキャナーによって、ユーザーのプライバシー保護を念頭に慎重に調整されたツールを構築しました。このツールの開発によって、AppleがiCloudデータの暗号化をより広範囲に提供できるようになるとすれば、ユーザーのプライバシーは実質的に向上すると言えるでしょう。
しかし、ツールは善でも悪でもありません。Appleはこのツールを良い目的のために開発しましたが、新しいツールが開発されるたびに、それがどのように悪用されるかを私たち全員が想像する必要があります。Appleはこの機能を非常に慎重に設計し、改ざんを困難にしているように見えますが、それだけでは十分ではありません。
外国の法執行機関がAppleにやって来て、違法画像のデータベースを構築したので、Appleのスキャナーに追加してほしいと申し出たと想像してみてください。Appleは、そのような要求はすべて拒否すると明言しています。これは心強いことです。Appleがそのような策略を試みた場合、ほとんどの国から見放されるだろうと私は確信しています。
しかし、中国にノーと言えるだろうか?問題の画像がテロ組織の構成員を示唆する内容だった場合、米国政府にノーと言えるだろうか?そして、10年後、あるいは20年後、このような政策が当たり前になり、政府がAppleやそれに匹敵する企業に違法または破壊的なコンテンツのスキャンを開始するよう要請した時、誰もそれに気づくだろうか?この技術の最初の導入はCSAMの阻止であり、児童搾取を阻止しようとすることに異論を唱える人はいないだろう。しかし、第二の導入、第三の導入はあるのだろうか?

フランク/Unsplash
Appleは、ユーザーのプライバシー侵害とCSAMの流通阻止の間の妥協点を見つけるために最善を尽くしてきました。この機能の非常に特殊な実装方法がそれを証明しています。(率直に言って、Appleが単にユーザーをスパイしたいだけだという単純化された話を売りつけようとする人は、聞くに値しません。)
しかし、Appleがデューデリジェンスを尽くし、凶悪なコンテンツの拡散を阻止するツールを実装するために慎重な選択を行ったからといって、責任を免れるわけではない。私たちの役に立つのではなく、監視するためのアルゴリズムをスマートフォンに実行させることで、Appleは一線を越えてしまった。一線を越えることは避けられなかったのかもしれない。テクノロジーが私たちを、私たちが言うこと、すること、見るものすべてが、それを実装した社会と同じくらい善意にも悪意にもなる機械学習アルゴリズムによってスキャンされる世界へと導くのは、避けられないことなのかもしれない。
たとえAppleの心が正しいとしても、その理念が法執行機関や権威主義的な政府の将来の要求に耐えられるという確信は、私が望むほど高くはありません。私たちは皆、CSAMに反対し、Appleがこの相反する二つのニーズのバランスを取ろうとした巧妙なやり方を称賛する一方で、それが将来にどのような影響を与えるかについては依然として懸念を抱いています。