最初の質問については、あなたが正しいと思います。 政策立案者は実際にガードレールを定義する必要がありますが、すべてに対してそれを行う必要はないと思います。 最も敏感な領域を選択する必要があると思います。 EU は、それらを高リスクと呼んでいます。 そしておそらくそこから、リスクの高いものは何か、どこにもっと時間を費やすべきか、そして潜在的に政策立案者と一緒にどこに時間を費やすべきかを考えるのに役立ついくつかのモデルを得るかもしれません.
フィードバックの共同設計と共同進化に関して言えば、私は規制サンドボックスの大ファンです。 ええと、インセンティブ ベースの評価システムに関するオックスフォード大学のプレス ブックに掲載された記事があります。 しかし、逆に言えば、皆さんはレピュテーションリスクを考慮に入れる必要があると思います。
デジタル化が進んだ社会に移行するにつれて、開発者も十分な注意を払う必要があります。 会社として、自分が考えるアルゴリズムや最良のアイデアだと思う自律システムを発表して、新聞の最初のページに掲載する余裕はありません。 それは、消費者による製品の信頼性を低下させるからです。
私が言いたいのは、双方に言えることは、顔認識技術に関しては、特定のガードレールがあるということについて話し合う価値があると思うということです。なぜなら、それがすべての人口に適用される場合、技術的な正確さがないからです。 金融商品やサービスへのさまざまな影響に関しては、銀行業界での私の仕事で見つけた優れたモデルがあります。これらのモデルには実際にトリガーがあり、実際にはさまざまな影響をもたらすプロキシを理解するのに役立つ規制機関があるためです。 . AIが主観的な意思決定に取って代わるために使用されている住宅および鑑定市場で、これを正しく見た領域がありますが、私たちが目にするタイプの差別や略奪的な鑑定にさらに貢献しています. 政策立案者にガードレールを課す必要がある場合もありますが、それ以上に積極的に行動する必要があります。 私は常に政策立案者に、データ サイエンティストを責めることはできないと言っています。 データがひどい場合。
アンソニー・グリーン: 右。
ニコル・ターナー・リー: R と D により多くの資金を投入してください。特定の地域で過大評価されている、またはマイノリティ人口に関して過小評価されている、より良いデータ セットを作成するのを手伝ってください。 重要なことは、それが連携しなければならないということです。 政策立案者が実際にこれを主導したり、データサイエンティストが特定の分野でそれを主導したりすると、良い解決策が得られるとは思いません. 人々が一緒に働き、それらの原則が何であるかについて協力することが本当に必要だと思います. これらのモデルを作成します。 コンピューターはそうではありません。 アルゴリズム、自律システム、または広告のターゲティングを作成するときに、これらのモデルを使用して何をしているかを知っています。 私たちは知っています! この部屋にいる私たちは、座って、これらのテクノロジーを使用する理由が理解できないとは言えません。 彼らが私たちの社会でどのように拡大されたかについては前例があるので、私たちは知っていますが、説明責任が必要です. そして、それはまさに私が達成しようとしていることです。 私たちが作成しているこれらのシステムについて、誰が私たちに責任を負わせているのでしょうか?
アンソニー、ここ数週間、私たちの多くがウクライナでの紛争を見てきたので、とても興味深いです。 私の娘は、私が 15 歳なので、さまざまな TikTok やその他のものを持って私のところに来て、「お母さん、これが起こっていることを知っていましたか?」と言っているのを見ました。 そして、彼女と一緒にその道をたどると、ある意味でそれを知らずに、会話に本当に参加してしまったので、私は自分自身を引き戻さなければなりませんでした. 私はその井戸にどんどん深く入り込んでいきます。
アンソニー・グリーン: うん。