大々的に宣伝されている生成型 AI の登場により、信頼と安全性に関するおなじみの議論が再燃しています。テクノロジー企業の幹部は社会の最善の利益を念頭に置いて信頼できるのでしょうか?
AI のトレーニング データは人間によって作成されるため、AI は本質的に偏見を持ちやすく、したがって私たち自身の不完全で感情に基づいた世界の見方に影響されやすいのです。 私たちは、差別や人種的不平等の強化から二極化の促進に至るまで、そのリスクをよく知っています。
OpenAI CEOのサム・アルトマン氏は、 私たちに「忍耐と誠実さ」を求めました 彼らは「正しく理解する」ために取り組んでいます。
何十年もの間、私たちは危険を承知で技術幹部たちを辛抱強く信頼してきました。彼らがそれを作ったのだから、彼らが修正できると言ったとき、私たちは彼らを信じたのです。 テクノロジー企業に対する信頼は低下し続けており、2023 年のエデルマン信頼バロメーターによると、 世界中で65%が心配 テクノロジーの進歩により、人々が見たり聞いたりしているものが本物かどうかを知ることは不可能になります。
シリコンバレーは、信頼を得るために別のアプローチ、つまり国の法制度で効果的であることが証明されているアプローチを採用する時期に来ています。
信頼と正当性に対する手続き的正義のアプローチ
社会心理学に基づいた手続き的正義は、人々が自分たちの意見に耳を傾け、中立的で偏りのない透明な意思決定を体験すると、制度や主体がより信頼でき正当であると信じるという研究結果に基づいています。
手続き上の正義の 4 つの主要な要素は次のとおりです。
- 中立性: 意思決定は公平であり、透明性のある推論に基づいて行われます。
- 敬意: すべての人が敬意と尊厳を持って扱われます。
- 声: 誰もが自分の側の話をする機会があります。
- 信頼性: 意思決定者は、自分の決定によって影響を受ける人々について、信頼できる動機を伝えます。
このフレームワークを使用して、警察はコミュニティ内での信頼と協力を向上させ、一部のソーシャルメディア企業は、 これらのアイデアを使用してガバナンスとモデレーションを形成します 近づいてきます。
ここでは、AI 企業がこのフレームワークを適応させて信頼と正当性を構築する方法について、いくつかのアイデアを紹介します。
適切な質問に対処するために適切なチームを構築する
として UCLA サフィヤ・ノーブル教授 アルゴリズムのバイアスをめぐる問題は、エンジニアだけでは解決できないと主張しています。なぜなら、アルゴリズムのバイアスは、組織的な社会問題であり、社会的な会話、コンセンサス、そして最終的には自己と政府の両方の規制を確保するために、一企業の外で人文主義的な視点を必要とするからです。
の 「システムエラー: 大手テクノロジー企業がどこで間違ったのか、そしてどうすれば再起動できるのか」 スタンフォード大学の 3 人の教授が、コンピューター サイエンスのトレーニングと最適化への執着によるエンジニアリング文化の欠点について批判的に議論し、しばしば民主主義社会の中核となる価値観を脇に追いやります。
ブログ投稿では、 オープンAIは社会からのインプットを重視すると語る: 「AGI の利点は非常に大きいため、社会がその発展を永久に止めることは不可能であり、望ましいとは考えていません。 その代わりに、社会とAGIの開発者はそれを正しく実現する方法を見つけ出す必要があります。」
ただし、会社の採用ページと創設者 サム・アルトマンさんのツイート 「ChatGPTには野心的なロードマップがあり、エンジニアリングがボトルネックになっている」ため、同社が機械学習エンジニアやコンピューター科学者を大量に採用していることを示している。
これらのコンピューター科学者やエンジニアは、OpenAI が言っているように、次のような意思決定を行う能力を備えていますか?新しいテクノロジーに対して社会が通常適用するよりもはるかに高い注意が必要になる”?
テクノロジー企業は、テクノロジーが人間と社会に与える影響を理解している社会科学者を含む学際的なチームを雇用する必要があります。 AI アプリケーションをトレーニングし、安全パラメータを実装する方法に関するさまざまな視点を活用することで、企業は意思決定の透明性のある根拠を明確に示すことができます。 これにより、このテクノロジーが中立的で信頼できるものであるという一般の人々の認識が高まる可能性があります。
部外者の視点を取り入れる
手続き上の正義のもう 1 つの要素は、人々に意思決定プロセスに参加する機会を与えることです。 最近では ブログ OpenAI企業がバイアスにどのように対処しているかについての投稿で、同社は「当社のテクノロジーに関する外部からのインプット」を求めていると述べ、最近のレッドチーム演習、つまり敵対的アプローチを通じてリスクを評価するプロセスを指摘した。
レッドチームはリスクを評価する重要なプロセスですが、外部からの意見を含める必要があります。 の OpenAI のレッドチーム演習, 参加者103名のうち82名が従業員でした。 残りの 23 人の参加者のうち、大多数は主に西洋の大学のコンピューター サイエンスの学者でした。 多様な視点を得るには、企業は自社の従業員、専門分野、地理を超えて目を向ける必要があります。
また、ユーザーが AI の動作をより詳細に制御できるようにすることで、AI 製品へのより直接的なフィードバックも可能になります。 また、新しいポリシーや製品の変更についてパブリックコメントを行う機会を設けることも検討するかもしれません。
透明性の確保
企業は、すべてのルールと関連する安全プロセスが透明性を確保し、意思決定がどのように行われたかについて信頼できる動機を伝える必要があります。 たとえば、アプリケーションがどのようにトレーニングされるか、データがどこから取得されるか、トレーニング プロセスで人間がどのような役割を果たすか、悪用を最小限に抑えるためにどのような安全層が存在するかについての情報を一般に提供することが重要です。
研究者が AI モデルを監査して理解できるようにすることが、信頼を築く鍵となります。
アルトマンは最近の記事でそれを正しく理解した ABCニュース インタビューで彼はこう語った。「社会は、それにどう反応するか、どう規制するか、どう対処するかを考える時間は限られていると思います。」
AI プラットフォームを構築する企業は、テクノロジーの先駆者の不透明さや盲目的なアプローチではなく、手続き上の正義のアプローチを通じて、社会をそのプロセスに参加させ、需要ではなく信頼と正当性を獲得することができます。