12月にはアップルが は、児童性的虐待資料(CSAM)に対抗するために同社が考案した、物議を醸しているiCloud写真スキャンツールをプライバシー保護の方法で廃止すると発表した。 その後、Apple は、反 CSAM の取り組みは、2021 年 8 月に最初に発表された子供向けの「コミュニケーションの安全」機能を中心に行うと述べた。そして今日、Apple はクパチーノで開催された同社の Worldwide Developers Conference で、追加機能を含むこのメカニズムの拡張を披露した。大人向けに仕立てました。
Communication Safety は、若いユーザーのデバイス上でローカルにメッセージをスキャンし、子供が iOS 上で送受信しているメッセージにヌードを含むコンテンツにフラグを立てます。 Appleは本日、この機能がFaceTimeビデオメッセージ、電話アプリの連絡先ポスター、ユーザーが送信する写真やビデオを選択する写真選択ツール、およびAirDropにも拡張すると発表した。 この機能のデバイス上での処理は、Apple がコンテンツにフラグが立てられていることを決して認識しないことを意味しますが、この秋から、ファミリー共有プラン内のすべての子アカウント (13 歳未満の子供) に対して通信の安全性がデフォルトでオンになります。 保護者は、必要に応じて機能を無効にすることを選択できます。
「コミュニケーションセーフティ機能は、子供たちにちょっと立ち止まって、できれば身づくろいのような会話が中断されることを望んでいる機能です」と、Appleのユーザープライバシー責任者エリック・ノイエンシュワンダー氏は言う。 「つまり、高摩擦になることを意味しています。 それは、その子の状況においておそらく正しいと思われる答えがあり、それは前に進むことができないということを意味しており、私たちは彼らが確実に教育を受けられるようにしたいと考えています。」
Appleは12月、サードパーティ開発者がコミュニケーション・セーフティを自社のアプリに簡単に統合し、それを児童性的虐待素材(CSAM)の検出に使用できるように、アプリケーション・プログラミング・インターフェース(API)を利用可能にする計画だと発表した。 機密コンテンツ分析フレームワークとして知られるこの API は、開発者が現在利用可能です。 Discordのようなプラットフォームはすでに、iOSアプリにDiscordを組み込む計画を発表している。