そのうえ、 全て テスト参加者は、自分のデータを機械学習と物体検出トレーニングに使用できることに同意する必要がありました。 具体的には、グローバル テスト契約の「研究情報の使用」に関するセクションでは、「テキスト、ビデオ、画像、またはオーディオ…は、iRobot が統計と使用データを分析し、技術上の問題を診断し、製品のパフォーマンス、製品、および機能の革新、市場調査、展示会、機械学習や物体検出を含む社内トレーニングなどです。」
ここで詳しく説明されていないのは、iRobot が人間のデータ ラベリング担当者を通じて機械学習トレーニングを実行し、クリックごとにアルゴリズムを教えて、生データに取り込まれた個々の要素を認識することです。 言い換えれば、私たちと共有された契約は、個人の画像が他の人間によって見られ、分析されることを明示的に言及していません.
iRobot のスポークスパーソンである Baussmann 氏は、私たちが強調した文言は「さまざまなテスト シナリオをカバー」しており、データ注釈のために送信された画像に固有のものではないと述べました。 「たとえば、テスターは、ロボットが特定の物体に引っかかったり、完全にドッキングしない場合など、ロボットの動作の写真やビデオを撮影し、それらの写真やビデオを iRobot に送信するよう求められることがあります」と彼は書いています。 「注釈目的で画像がキャプチャされるテストについては、そのテストに関連する契約で概説されている特定の条件があります。」
彼はまた、「あなたが話した人々があなたの記事に関連する開発作業の一部であったかどうかはわかりません」と書いていますが、最終的には 全て ユーザーのデータを収集して機械学習に使用するテスト。
ユーザーが本当に理解していること
プライバシーを専門とする弁護士や学者に同意書のレビューを依頼し、テスト ユーザーの懸念を共有したところ、彼らはドキュメントとその後のプライバシー侵害が、ベータ テスターであるかどうかにかかわらず、私たち全員に影響を与える同意の枠組みの破綻を象徴していると考えました。通常の消費者。
専門家によると、プライバシーポリシーを読んだとしても、人々がプライバシーポリシーを詳しく読むことはめったにないことを企業はよく知っている. しかし、iRobot のグローバルなテスト契約が証明しているのは、AI と人権に焦点を当てた電子プライバシー情報センターの弁護士である Ben Winters 氏は、「たとえそれを読んでも、まだ明確にはなっていない」ということです。
むしろ、「この文言の多くは、適用されるプライバシー法から会社を免除するように設計されているようですが、製品がどのように動作するかという現実を反映しているものはありません」とカーン氏は述べ、ロボット掃除機の可動性と制御の不可能性を指摘しています。潜在的に敏感な人や物、特に子供が常に自分の家にいる場所。
最終的に、その「場所[s] 責任の多くはエンド ユーザーにあります」と、メリーランド大学情報学部の情報科学者で、研究と同意ポリシーのベスト プラクティスを研究している Jessica Vitak 氏は述べています。 しかし、それは彼らに「どのようにうまくいかないか」を正確に説明するものではないと彼女は言います。