2021年8月、 Apple は、iCloud に保存されているユーザーの写真をスキャンして児童の性的虐待の素材 (CSAM) を検出する計画を発表しました。 このスキームは、プライバシーを保護することを目的としており、会社が潜在的に問題のあるコンテンツや虐待的なコンテンツにフラグを立てることを可能にし、他に何も明らかにすることはありません. しかし、このイニシアチブは物議を醸し、すぐにプライバシーとセキュリティの研究者とデジタル著作権グループから、監視機能自体が悪用されて世界中の iCloud ユーザーのプライバシーとセキュリティが損なわれる可能性があるとして、広範な批判を集めました。 2021 年 9 月の初めに、Apple は機能のロールアウトを一時停止して、「これらの非常に重要な子供の安全機能をリリースする前に意見を収集し、改善する」と述べました。受け取ったフィードバックとガイダンスに応えて、iCloud写真のCSAM検出ツールは死んでいると言います。
代わりに、Apple は今週 WIRED に語った、同社は 2021 年 8 月に最初に発表し、昨年 12 月に開始された「通信の安全性」機能に、反 CSAM の取り組みと投資を集中させています。 保護者と介護者は、家族の iCloud アカウントを通じて保護を有効にすることができます。 彼らは、Siri、Apple の Spotlight 検索、および Safari 検索で動作し、誰かが児童の性的虐待資料を見たり検索したりした場合に警告し、その場でリソースを提供してコンテンツを報告し、助けを求めます。 さらに、保護の中核となるのは、メッセージのコミュニケーションの安全性です。これは、ヌードを含む写真を受信または送信しようとした場合に、保護者が子供に警告とリソースを提供するように設定できます。 目標は、子どもの搾取が発生する前に阻止し、新たな CSAM の作成を減らすことです。
「昨年提案した児童保護イニシアチブに関するフィードバックを収集するための専門家との広範な協議の後、2021年12月に最初に利用可能になった通信の安全性機能への投資を深めています」と同社は声明でWIREDに語った. 「さらに、以前に提案したiCloud写真用のCSAM検出ツールを進めないことを決定しました。 子どもたちは、企業が個人データをくまなく調べなくても保護できます。私たちは政府、児童擁護団体、その他の企業と協力して、若者を保護し、プライバシーの権利を保護し、インターネットを子どもたちと私たち全員にとってより安全な場所にするために引き続き取り組んでいきます。 」
Apple の CSAM アップデートは、同社がクラウド サービスに保存されているバックアップや写真の保護を追加するなど、iCloud 向けのエンド ツー エンドの暗号化製品を大幅に拡張しているという本日の発表とともに行われました。 CSAM との戦いに取り組んでいる子供の安全の専門家や技術者は、エンド ツー エンド暗号化の広範な展開にしばしば反対してきました。これは、テクノロジー企業がユーザー データにアクセスできなくなり、CSAM のスキャンとフラグ付けがより困難になるためです。 世界中の法執行機関も同様に、エンド ツー エンド暗号化の使用と拡大に反対する際に、児童の性的虐待の悲惨な問題を引き合いに出しています。一部の調査がより困難になる可能性があります。 しかし、エンドツーエンドの暗号化が人権を保護するための重要な安全ツールであり、その実装のマイナス面がその利点を上回っていないことは、調査によって一貫して示されています.
Communication Safety for Messages はオプトインであり、ユーザーがユーザーのデバイスで送受信する画像添付ファイルを分析して、写真にヌードが含まれているかどうかを判断します。 この機能は、Apple が決してメッセージにアクセスできないように設計されており、Messages が提供するエンドツーエンドの暗号化が破られることはなく、デバイスがヌードを検出したことを Apple が知ることさえありません。
同社は WIRED に、コミュニケーションの安全性機能を拡張するための具体的なタイムラインを発表する準備はできていないが、保護が有効になっているときにメッセージを介して送信されるビデオでヌードを検出する機能を追加することに取り組んでいると語った. 同社はまた、メッセージを超えて他の通信アプリケーションに提供を拡大することを計画しています。 そして最終的には、サードパーティの開発者が Communication Safety ツールを独自のアプリケーションに組み込むことができるようにすることが目標です。 Apple によると、機能が普及すればするほど、子供たちは悪用される前に必要な情報とサポートを得る可能性が高くなります。
同社は声明で、「保護者が安全でない通信から子供を守るためのオプトイン ツールを提供することで、潜在的な子供の搾取を未然に防ぐことができます」と述べています。 「Apple は、児童の性的虐待に対抗し、児童を保護するための革新的なプライバシー保護ソリューションの開発に専念すると同時に、個人のコミュニケーションとデータ ストレージに関する独自のプライバシー ニーズに対応します。」
Meta を含め、CSAM への対処に公然と取り組んでいる他の企業と同様に、Apple は WIRED に対し、ユーザーが搾取的なコンテンツや状況を擁護団体にできるだけ簡単に報告できるよう、子供の安全の専門家と協力し続ける予定であると語った。そして法執行機関。
CSAM に対抗することは、世界中の子供たちにとって非常に高い賭け金を伴う複雑で微妙な取り組みであり、この時点では、積極的な介入に対する Apple の賭けがどれだけの牽引力を得るかはまだわかっていません. ただし、テクノロジーの巨人は、CSAM の検出とユーザーのプライバシーとの間のバランスを見つけるために努力しているため、紙一重です。