Google AI は、病気の子供のヌード写真をめぐる虐待の可能性がある親のアカウントにフラグを立てました


心配している父親は、彼の Android スマートフォンを使用して幼児の鼠径部の感染症の写真を撮った後、Google がその画像を児童性的虐待資料 (CSAM) としてフラグ付けしたと述べています。 からの報告 ニューヨークタイムズ. 同社は彼のアカウントを閉鎖し、行方不明および搾取された子供のための国立センター (NCMEC) に報告書を提出し、警察の捜査に拍車をかけました。個人のデバイスでもクラウド ストレージでも、デジタル ライブラリを使用できます。

プライベートと見なされるべきものの境界線があいまいになることの結果についての懸念は、Appleが昨年、子供の安全計画を発表したときに放映されました. 計画の一環として、Apple は Apple デバイス上の画像を iCloud にアップロードする前にローカルでスキャンし、その画像を既知の CSAM の NCMEC のハッシュ データベースと照合します。 十分な一致が見つかった場合、人間のモデレーターがコンテンツを確認し、CSAM が含まれている場合はユーザーのアカウントをロックします。

非営利のデジタル著作権グループである電子フロンティア財団 (EFF) は、 アップルの計画を非難した、それは「あなたの私生活へのバックドアを開く」可能性があり、「すべてのiCloud Photosユーザーのプライバシーの低下であり、改善ではない」と述べています.

Appleは最終的に保存された画像のスキャン部分を配置しました 保留、しかし、iOS 15.2の起動に伴い、それは含めることを進めました 子アカウントのオプション機能 家族共有プランに含まれています。 親がオプトインすると、子供のアカウントでメッセージ アプリが「メッセージのエンド ツー エンドの暗号化を維持しながら、画像の添付ファイルを分析し、写真にヌードが含まれているかどうかを判断します」。 ヌードが検出されると、画像がぼやけ、子供に警告が表示され、オンラインの安全に役立つリソースが提示されます。

によって強調された主な事件 ニューヨークタイムズ COVID-19 のパンデミックにより、一部の診療所がまだ閉鎖されていた 2021 年 2 月に開催されました。 によって指摘されたように タイムズ、マーク(姓は明らかにされていません)は、子供の生殖器領域の腫れに気づき、看護師の要請で、ビデオ相談の前に問題の画像を送信しました. 医師は結局、感染症を治す抗生物質を処方しました。

による ニューヨークタイムズ、マークは写真を撮ってからわずか2日後にGoogleから通知を受け取り、「Googleのポリシーに対する重大な違反であり、違法である可能性がある」「有害なコンテンツ」のためにアカウントがロックされたと述べました.

Facebook、Twitter、Reddit などの多くのインターネット企業と同様に、Google は Microsoft の PhotoDNA とのハッシュ マッチングを使用して、アップロードされた画像をスキャンし、既知の CSAM との一致を検出しています。 2012 年には、Gmail を使用して少女の画像を送信した性犯罪者の男が逮捕されました。

2018年、 グーグルが発表 その打ち上げ コンテンツ セーフティ API AI ツールキット これは、「これまでに見たことのない CSAM 画像を積極的に特定して、レビューし、CSAM であることが確認された場合は、可能な限り迅速に削除して報告できるようにする」ことができます。 同社はこのツールを独自のサービスに使用し、YouTube のエンジニアが開発したビデオ ターゲット CSAI Match ハッシュ マッチング ソリューションと共に、他のユーザーにも使用できるように提供しています。

Google「独自のプラットフォームとサービスでの悪用との戦い」:

訓練を受けたスペシャリスト チームと最先端のテクノロジー (機械学習分類子やハッシュ マッチング テクノロジーなど) を使用して CSAM を特定し、報告します。これにより、ハッシュと比較できるように画像や動画の「ハッシュ」または一意のデジタル フィンガープリントが作成されます。既知の CSAM の CSAM を発見すると、世界中の法執行機関と連絡を取り合っている National Center for Missing and Exploited Children (NCMEC) に報告します。

グーグルの広報担当者は、 タイムズ Google は、ユーザーが「アファーマティブ アクション」を行った場合にのみ、ユーザーの個人的な画像をスキャンします。これには、写真を Google フォトにバックアップすることが含まれているようです。 Google が搾取的な画像を報告すると、 タイムズ Google は 連邦法 潜在的な違反者を NCMEC の Cyber​​TipLine に報告すること。 2021 年、Google 621,583件を報告 NCMEC の Cyber​​TipLine への CSAM の 4,260人の潜在的な犠牲者について当局に警告した、そのリスト ニューヨークタイムズ マークの息子が含まれていると言います。

マークは、Google Fi のモバイル サービスである タイムズ 報告します。 マークはすぐに Google の決定に異議を申し立てようとしましたが、Google はマークの要求を拒否しました。 マークが住んでいるサンフランシスコ警察は、2021 年 12 月にマークの調査を開始し、マークが Google に保存したすべての情報を入手しました。 事件の捜査官は、最終的に事件が「犯罪の要素を満たしておらず、犯罪は発生しなかった」ことを発見した. ニューヨークタイムズ ノート。

グーグルのスポークスパーソン、クリスタ・マルドゥーン氏は、「児童の性的虐待素材(CSAM)は忌まわしいものであり、プラットフォーム上での拡散を防ぐことに全力を尽くしています」と述べた。 ザ・バージ. 「私たちは、CSAM を構成するものを定義する際に米国の法律に従い、ハッシュ マッチング技術と人工知能の組み合わせを使用してそれを特定し、当社のプラットフォームから削除します。 さらに、子供の安全の専門家チームは、報告されたコンテンツの正確性を確認し、小児科医に相談して、ユーザーが医学的アドバイスを求めている可能性がある事例を特定できるようにします。」

子どもを虐待から守ることは紛れもなく重要ですが、批評家は、ユーザーの写真をスキャンする行為は、プライバシーを不当に侵害していると主張しています。 EFF のテクノロジー プロジェクト ディレクターである Jon Callas 氏は、Google の慣行を「押し付けがましい」と述べた。 ニューヨークタイムズ。 「これはまさに私たち全員が懸念している悪夢です」とカラスは語った。 ニューヨークタイムズ. 「彼らは私の家族のアルバムをスキャンしようとしています、そして私はトラブルに巻き込まれるでしょう。」

コメントする

xxxbangole xtubemovies.info sex aunties stories
masala xvideos ultratube.mobi kerala girl sex
sexmove.com indianfuckblog.com new girl mms
سكس صبايا secretsporn.com مشاهدة افلام سيكس
pantyhose hentai hentai-site.net kawaii neko hentai
janani iyer hot pornofantasy.net tamilnadu sexy photo
indian sexy girls xbeegtube.mobi redtube,com
aishwarya rai sex image hd dalporn.net seksividos
كساس عرب annarivas.net فيلم منى فاروق
xnxxmovies.com redwap2.com debonairblogs.com
shakeela porn desisexy.org radhika kumaraswamy sex videos
نيك اون لاين thepornoexperience.com سكس اوربى مترجم
افلام s sexoyporno.org سكس مصري بلدى
www.indiansex..com tubster.net mrunmayi
abarenbow tengu hentainaked.com hunter x hunter hentai comics