各評価は AI モデルへの窓であり、常にどのように機能するかを完全に読み取るものではないと Solaiman 氏は言います。 しかし彼女は、AI が引き起こす可能性のある危害を特定して阻止できるようにしたいと考えています。これは、ゲーム AI ダンジョンのプレイヤーが GPT-3 を使用して子供が関与するセックス シーンを説明するテキストを生成するなど、すでに憂慮すべき事例が発生しているためです。 「これは、許すことができない極端な例です」と Solaiman 氏は言います。
ソライマンズ 最新の研究 Hugging Face での調査によると、主要なテクノロジー企業は、2018 年から 2022 年にかけてリリースした生成モデルに対してますます閉鎖的なアプローチを取っていることがわかりました。その傾向は、Google と DeepMind の Alphabet の AI チームによって加速し、段階的なリリース後に AI に取り組んでいる企業全体でより広範に加速しました。 GPT-2。 ブレークスルーを企業秘密として守る企業は、AI の最前線に、ほとんどリソースを持たない周縁化された研究者が近づきにくくすることもできる、と Solaiman は言います。
大規模な言語モデルにより多くの資金が投入されるにつれて、クローズド リリースは、自然言語処理の分野の歴史を通じて見られた傾向を逆転させています。 研究者は従来、結果の再現性を促進するために、トレーニング データ セット、パラメーターの重み、およびコードに関する詳細を共有してきました。
「特に製品としてリリースされる最も強力なシステムについては、どのデータベース システムがトレーニングされたか、またはそれらがどのように評価されたかについて、ますますほとんど知識がなくなりました」と、スタンフォード大学の博士課程の学生で、大規模な言語モデルに焦点を当てた研究を行っている Alex Tamkin は言います。
彼は、AI 倫理の分野の人々が、テクノロジーが何十億もの人々に展開されているときに、迅速に行動して物事を壊すことが危険である理由について、一般の意識を高めたと考えています。 近年その作業がなければ、事態はさらに悪化する可能性があります。
2020年秋、タムキン シンポジウムを共催しました 大規模な言語モデルの社会的影響について、OpenAI のポリシー ディレクターである Miles Brundage 氏と話し合いました。 学際的なグループは、業界のリーダーが倫理基準を設定し、展開前にバイアス評価を実行し、特定のユースケースを回避するなどの措置を講じる必要があることを強調しました。
Tamkin 氏は、内部評価が不十分な傾向にあるため、外部 AI 監査サービスは、AI を基盤とする企業と共に成長する必要があると考えています。 彼は、コミュニティ メンバーやその他の利害関係者を含む参加型の評価方法には、AI モデルの作成への民主的な参加を増やす大きな可能性があると考えています。
ミシガン大学の AI 倫理および政策センターの研究責任者である Merve Hickok は、企業に AI の誇大宣伝を脇に置いたり穴をあけたり、自らを規制したり、倫理原則を採用させたりするだけでは十分ではないと述べています。 人権を保護するということは、倫理的なことについての会話を超えて、合法的なことについての会話に移行することを意味すると彼女は言います.
DAIR の Hickok と Hanna は、EU が今年 AI 法を最終決定し、テキストと画像を生成するモデルをどのように扱うかを見守っています。 ヒコック氏は、ヨーロッパの議員が、Google、Microsoft、OpenAI などの企業によって作成されたモデルに関連する損害に対する責任をどのように扱っているかを見ることに特に関心があると述べました。
「義務付けられなければ、これらの企業が物事を壊し続け、権利よりも利益を追求し続け、コミュニティよりも利益を追求し続けることを何度も見てきたため、いくつかのことを義務付ける必要があります」とヒコックは言います。
ブリュッセルで政策が議論される中、リスクは高いままです。 Bard のデモの失敗の翌日、Alphabet の株価は下落し、時価総額は約 1,000 億ドル減少しました。 「これほど大規模な言語モデルのエラーが原因で富が失われるのを見たのは初めてです」と Hanna は言います。 しかし、彼女は楽観的ではありません。 「私の推測では、これは警告的な話にはなりません。」
2023 年 2 月 16 日午後 12 時 15 分更新: この記事の以前のバージョンでは、Merve Hickok の名前のつづりが間違っていました。