WIREDが尋ねると 今週のニュースレターを取り上げるにあたり、私の最初の本能は、OpenAI のバイラル チャットボットである ChatGPT に、それが何を思いついたのかを確認することでした。 これは、私がメール、レシピ、LinkedIn の投稿でこの 1 週間ずっと行ってきたことです。 生産性は大幅に低下していますが、Elon Musk に関する生意気なリメリックは 1000% 上昇しています。
このボットに、Steven Levy のスタイルで自分自身についてのコラムを書くように依頼しましたが、結果は良くありませんでした。 ChatGPT は、AI の可能性と落とし穴に関する一般的な解説を提供しましたが、Steven の声を実際に捉えたり、何か新しいことを言ったりすることはありませんでした。 先週書いたように、流暢でしたが、完全に説得力があるわけではありませんでした。 しかし、それは私に考えさせました:私はそれでうまくいったでしょうか? また、仕事のメールであろうと大学のエッセイであろうと、実際にはすべきではないことに AI を使用している人を捕まえるには、どのようなシステムが必要でしょうか?
それを知るために、アルゴリズムに透明性と説明責任を組み込む方法について雄弁に語っている、オックスフォード インターネット インスティテュートの技術と規制の教授であるサンドラ ワクターに話を聞きました。 私は彼女に、ChatGPT のようなシステムはどのようなものになるのか尋ねました。
アミット・カトワラ: ChatGPT は、古典的な詩から当たり障りのないマーケティング コピーまで、あらゆるものを書くことができますが、今週の大きな話題の 1 つは、それが学生のカンニングを助けることができるかどうかでした。 あなたの学生の 1 人が論文を書くためにそれを使用したかどうかを知ることができると思いますか?
Sandra Wachter: これはいたちごっこのようなものです。 この技術は、法律を教えている私をだますにはまだ不十分かもしれませんが、その分野に詳しくない人を納得させるには十分かもしれません。 テクノロジーは時間の経過とともに改善され、私もだまされるようになるのだろうか. 私たちが見ているものが人間によって作成されたことを確認するための技術的なツールが必要になるかもしれません。 ディープフェイク 編集された写真の検出。
アーティファクトや明確な兆候が少ないため、ディープフェイク画像の場合よりもテキストの場合は本質的に難しいようです。 おそらく、信頼できるソリューションは、そもそもテキストを生成している会社によって構築される必要があるかもしれません。
そのツールを作成している人からの賛同が必要です。 しかし、私が学生にサービスを提供している場合、私はそれに服従するタイプの会社ではないかもしれません. また、透かしを入れても取り外せる場合もあります。 非常に技術に精通したグループは、おそらく方法を見つけるでしょう。 しかし、実際には ハイテクツール [built with OpenAI’s input] これにより、出力が人為的に作成されたかどうかを検出できます。
ハームリダクションを念頭に置いて設計されたChatGPTのバージョンはどのようになりますか?
いくつかのこと。 まず、これらのツールを作成した人は誰でも透かしを入れていると強く主張します。 また、EU が提案している AI 法は、ボットに関する透明性を扱っており、何かが現実でない場合は常に注意する必要があると述べているため、役立つかもしれません。 しかし、企業はそうしたくないかもしれませんし、透かしを削除できるかもしれません。 つまり、AI の出力を調べる独立したツールの研究を促進することです。 そして教育においては、学生の評価方法や論文の書き方について、より創造的にならなければなりません。 混乱を抑えるのに役立つのは、テクノロジーと人間による監視の組み合わせでなければなりません。