4か月でどんな違いが生まれるのでしょう。
11 月に AI システムがどのように進歩していると思うか尋ねられたら、肩をすくめたかもしれません。 確かに、それまでに OpenAI は DALL-E をリリースし、 私は自分が夢中になっていることに気づきました それが提示した創造的な可能性とともに。 とはいえ、大きなプラットフォームが人工知能を誇大宣伝するのを何年も見てきましたが、市場には、長年にわたって私たちのために説明されてきたより壮大なビジョンに対応しているように見える製品はほとんどありませんでした.
その後、OpenAI は、生成の可能性で世界を魅了したチャットボット、ChatGPT をリリースしました。 マイクロソフトの GPT を利用した Bing ブラウザー、人類の クロード、および Google の 吟遊詩人 立て続けに続いた。 AI を活用したツールが急速に普及している その他のマイクロソフト製品 Google にはさらに多くの機能が追加されています。
同時に、ユビキタスな合成メディアの世界に近づくにつれて、いくつかの危険な兆候が現れています. 週末にかけて、絶妙な白いフグコートを着た教皇フランシスコの画像が口コミで広まりました。 オープンソース インテリジェンス サイト Bellingcat の創設者は、Midjourney を使用して作成および配布した後、Midjourney から追放されました。 ドナルド・トランプが逮捕される不気味なもっともらしい画像. (会社はそれ以来、 無効化された無料試用版 新しいサインアップの流入に続いて.)
著名な技術者のグループは現在、これらのツールのメーカーに減速するよう求めています
合成テキストは、学生、コピーライター、およびその他の知識作業に携わる人々のワークフローに急速に浸透しています。 今週 バズフィード 最新の出版社になりました AI による投稿の実験を開始するには.
同時に、 テクノロジープラットフォームは、AI倫理チームのメンバーを削減しています. Meta によって作成された大規模な言語モデル 流出して4chanに投稿された、そしてすぐに誰かがそれをラップトップで実行する方法を見つけました。
他の場所では、OpenAI が GPT-4 用のプラグインをリリースし、言語モデルが API にアクセスし、インターネットとより直接的にやり取りできるようにしました。 予測不可能な新たな危害の道が生まれるのではないかという恐怖を引き起こす. (OpenAI に直接問い合わせたが、回答は得られなかった。)
著名な技術者のグループが現在、これらのツールのメーカーに速度を落とすよう求めているのは、この大混乱を背景にしています。 こちらです ケイド・メッツとグレゴリー・シュミット ニューヨーク・タイムズ:
イーロン マスクを含む 1,000 人を超えるテクノロジ リーダーや研究者が、人工知能研究所に最先端システムの開発を一時停止するよう要請しました。 公開書簡 AI ツールは「社会と人類に深刻なリスク」をもたらすと述べています。
AI 開発者は、「誰も — その作成者でさえ — 理解、予測、または確実に制御できない、かつてないほど強力なデジタル マインドを開発および展開するための制御不能な競争に巻き込まれている」と、非営利団体の Future ofライフ インスティテュートは水曜日にリリースされました。
手紙に署名した他の人には、Apple の共同設立者である Steve Wozniak が含まれます。 起業家であり、2020年の大統領候補であるアンドリュー・ヤン。 レイチェル・ブロンソンは、原子力科学者会報の会長であり、 終末時計.
少なくとも、この手紙は、実存的な AI の恐怖が主流の認識に向かう行進のマイルストーンとして私を襲います。 批評家や学者は、これらのテクノロジーがもたらす危険性について何年も警告してきました。 しかし、昨年の秋まで、DALL-E や Midjourney をいじっている人はほとんどいませんでした。 それでもここにいます。
技術者の手紙には、いくつかの価値のある批評があります。 ワシントン大学の言語学教授で AI 評論家のエミリー M. ベンダーは、これを「ホット混乱このような運命論は、AI企業を実際よりもはるかに強力に見せることで、最終的にはAI企業に利益をもたらすと主張している. (こちらもご覧ください その件について。)
名目上は AI を利用した欺瞞を懸念しているグループにとっては恥ずかしいことですが、当初、書簡の署名者として提示された多くの人々が、 署名していないことが判明した. と フォーブス 手紙キャンペーンを組織した研究所は、主にマスクによって資金提供されていることに注意してください。 独自の AI の野心を持っている人.
AI の変化のペースは、それを処理する私たちの集合的な能力をすぐに追い越す可能性があるように感じます
ここでは、速度を第一に考えるべきではないという議論もあります。 先月、エズラ・クラインは次のように主張しました。 私たちの本当の焦点は、これらのシステムのビジネスモデルにあるべきです. 恐れているのは、広告をサポートする AI システムが、私たちが現在考えているよりも強力に私たちの行動を操作できることが証明されているということです。 「社会は、AI が何をするのが快適で、AI が何を試すことを許可されるべきでないかを、決定を下すのに手遅れになる前に理解しなければならないでしょう」と Klein 氏は書いています。
これらは適切で必要な批判です。 それでも、公開書簡で特定できる欠陥が何であれ、特にマスクが最近言わなければならないことにはかなりの割引を適用しますが、最終的には彼らの集合的な議論に納得しました. AI の変化のペースは、それを処理する私たちの集合的な能力をすぐに追い越す可能性があるように感じます。 そして、変更の署名者が求めている変更 — 既にリリースされている言語モデルよりも大きな言語モデルの開発を一時停止すること — は、物事の壮大な計画の中でマイナーな要求のように感じます.
技術報道は、イノベーションと、そこから生じる直接的な混乱に焦点を当てる傾向があります。 通常、新しいテクノロジーが社会レベルの変化をどのように引き起こすかを考えるのは得意ではありません。 それでも、AI が劇的に影響を与える可能性はあります。 雇用市場、 情報環境、 サイバーセキュリティ と 地政学 — 懸念事項を 4 つだけ挙げるとすれば — より大きく考える理由になるはずです。
情報環境を研究し、 私が以前ここで取り上げた作品、GPT-4の発売前にOpenAIのレッドチームに所属していました. レッドチームは基本的に、システムの弱点を特定するために参加者がシステムの敵として行動するロールプレイング演習です。 GPT-4 レッドチームは、言語モデルがチェックされないままにしておくと、私たちが望んでいないあらゆる種類のことを行うことを発見しました。 無意識に TaskRabbit を雇って CAPTCHA を解決する. その後、OpenAI は、モデルをリリースする前に、その問題やその他の問題を修正することができました。
の新作で 有線しかし、Ovadya は、レッドチームだけでは十分ではないと主張しています。 モデルが吐き出す物質を知るだけでは十分ではないと彼は書いています。 また、モデルのリリースが社会全体にどのような影響を与えるかを知る必要もあります。 学校、ジャーナリズム、または軍事作戦にどのような影響を与えるでしょうか? Ovadya は、これらの分野の専門家をモデルのリリースに先立って参加させ、公共財や機関の回復力を高め、誤用を防ぐためにツール自体を変更できるかどうかを確認することを提案しています。
オバディア このプロセスを「バイオレット チーミング」と呼びます:
これは一種の柔道と考えることができます。 汎用 AI システムは、世界に解き放たれた巨大な新しい形の力であり、その力は私たちの公共財に害を及ぼす可能性があります。 柔道が攻撃者の力をリダイレクトして無力化するように、バイオレット チームは AI システムによって解き放たれた力をリダイレクトして公共財を守ることを目指しています。
実際には、バイオレット チームの実行には、一種の「レジリエンス インキュベーター」が含まれる場合があります。つまり、機関や公共財の専門家と、(プレリリース) AI モデルを使用して新製品を迅速に開発し、それらのリスクを軽減できる人や組織を組み合わせることです。
OpenAI や Google などの企業が自発的に、または新しい連邦機関の主張で採用した場合、バイオレットのチーム化は、より強力なモデルが私たちの周りの世界にどのように影響するかについて、より良い準備を整えることができます.
ただし、せいぜいバイオレットチームは、ここで必要なレギュレーションの一部にすぎません。 私たちが取り組まなければならない非常に多くの基本的な問題があります。 GPT-4 のような大きなモデルをラップトップで実行できるようにする必要がありますか? OpenAI のプラグインが現在行っているように、これらのモデルがより広いインターネットにアクセスできる程度を制限する必要がありますか? 現在の政府機関はこれらの技術を規制しますか、それとも新しい技術を作成する必要がありますか? もしそうなら、どれくらい早くそれを行うことができますか?
インターネットの速度はしばしば私たちに不利に働きます
これらの質問に対する答えが必要になると信じるのに、AI の誇大宣伝に惑わされる必要はないと思います。 私たちの強硬な政府が答えを出すには時間がかかります。 そして、技術が政府の理解能力よりも速く進歩し続ければ、私たちはそれを加速させたことを後悔するでしょう.
いずれにせよ、今後数か月は、GPT-4 とそのライバルの現実世界への影響を観察し、どこでどのように行動すべきかを理解するのに役立ちます. しかし、その間に大きなモデルがリリースされないという知識は、AI が一部の人が信じているほど有害である可能性があると信じている人々に安心感を与えると思います。
ソーシャル メディアへの反発を取り上げることから 1 つの教訓を取り上げるとしたら、それは、インターネットの速度がしばしば私たちに不利に働くということです。 嘘は、誰がそれを調整できるよりも速く伝わります。 ヘイトスピーチは、怒りを鎮めるよりも早く暴力を誘発します。 ソーシャル メディアの投稿が口コミで広まるのにブレーキをかけたり、追加のコンテキストで注釈を付けたりすることで、これらのネットワークは、そうでなければ投稿を悪用して危害を加えようとする悪意のある人物に対して、より回復力のあるものになりました。
AI が最終的に、一部の人騒がせな人々が現在予測している大混乱を引き起こすかどうかはわかりません。 しかし、業界が全速力で動き続ければ、こうした被害が現実のものとなる可能性が高くなると私は信じています。
大規模な言語モデルのリリースを遅らせることは、今後の問題に対する完全な解決策ではありません。 しかし、それは私たちにそれを開発する機会を与える可能性があります.