視聴者がトランスフォビアな発言のセグメントにフラグを立てた後、Twitchは禁止されました 何も、永遠に 2週間。 恥ずかしくて申し訳なさそうなハートル氏は、攻撃的なトピックをフィルタリングすることにもっと注意を払うと述べた. しかし、彼はラリーが面白いネタを手に入れるとは約束しませんでした。
UCLA のコンピューター サイエンスの助教授である Nanyun Peng は、AI の創造性を研究し、論文をまとめています。ユーモアの原則を備えた駄洒落生成のための統一フレームワーク” と “サプライズでしゃれジェネレーション」 彼女によると、AI が面白くないのは、AI が確率モデルを使用して最も予想されるアイデアを決定し、ユーモアは予想外の反応に基づいているという事実に由来します。
それは悪い言い訳のように思えます。 私はコメディ作家の部屋で働いてきましたが、多くのジョークの執筆は単なる数学です. 理論的には、機械学習を使用してこれを行うことができるはずです。 実際、Peng はかつて AI モデルにユーモアのルールを教えたことがあります。 三の法則や不調和説など。 「私たちのマシンは、『グレイハウンドがうさぎを切るために立ち止まった』というメッセージを生成できました」と彼女は私に語った。 私は笑わないことに気分が悪く、それが彼女をしぼませたようだった。 「そんなに面白くない。 しかし、それは多少です。 この結果を見たとき、私たちは興奮しました。」
Peng 氏によると、この課題は非常に大きなものです。 「人間はジョークを本当に理解していないと思います。 それらを使用してスタンダップコミックになるという理論はありません。 その一部は本当に才能です」と彼女は言います。
コメディアンのホイットニー・カミングスは、2019 年の Netflix スペシャルのために彼女に似せて作られたロボットを持っていましたが、AI がひどいジョークを言ったことに驚きませんでした。 「なぜ人々はロボットが面白くないことにショックを受けるのか? ほとんどの人間は面白くありません。 面白いロボットといえば、ソファの下で立ち往生するルンバだけです」と彼女は言います。
カミングスは一般的にプロロボットです。 彼女はロボット版の自分を家に置いています。 しかし、彼女はそれが彼女を笑わせることを期待していません. 「コメディーは、人間の本質に非常に特化した数少ないものの 1 つです」と彼女は言います。 「コメディとは、人間の生きた経験から生じるトラウマと、それをどのように対処するかについてのものです。 ロボットにトラウマを負わせることはできません。」
について書いたスパイク・フェレステンに尋ねたところ、 となりのサインフェルド 1996 年から 1998 年にかけてなぜ彼は考えたのか 何も、永遠に 彼は、なぜ面白くないのかを AI に尋ねることを提案しました。 しかし、ChatGPT にログオンすると、容量に達しているため使用できないと表示されました。 しかし、奇妙なことに、ページの左側には、「ChatGPT のステータスについてスタンダップ コメディ ルーチンを書いてください」という AI チャットを介して、失敗の説明が表示されていました。 その中で冗談に最も近いものは次のとおりです。
それをフェレステンに送ったら、「スポックが面白くない理由を聞いているようなものだ」と返事がありました。
実際、後で ChatGPT にログオンして、なぜ面白くないのかと尋ねたところ、ボットは基本的に Feresten と同じことを言いましたが、ユーモアは少なかったです。人間のようなユーモアのセンスはありません。 人間と同じように、感情を経験したり、文脈を理解したり、言語のニュアンスを理解したりすることはありません。」
それでも、この記事は数秒で要約できました。もっとジョークを入れるべきでした。