それ以来、ますます大規模な言語モデルを増殖させようとする探求が加速し、悪意のあるテキストや偽情報をまとめて出力するなど、私たちが警告した危険の多くは、 展開し続ける. ほんの数日前、Meta は「Galactica」LLM をリリースしました。これは、「学術論文の要約、数学の問題の解決、Wiki 記事の生成、科学コードの記述、分子やタンパク質の注釈付けなどを行う」とされています。 わずか3日 その後、公開デモは研究者の後に取り下げられました 生成された 「自殺の利点、砕いたガラスを食べること、反ユダヤ主義、同性愛者が悪である理由など、さまざまなテーマに関する研究論文とウィキ エントリ。」
この競争は LLM にとどまらず、OpenAI のようなテキストから画像へのモデルへと移行しました。 DALL-E と StabilityAI の 安定拡散、テキストを入力として受け取り、そのテキストに基づいて生成された画像を出力するモデル。 の 危険 多くの研究者やジャーナリストが報告しているように、これらのモデルには、児童ポルノの作成、偏見の永続化、ステレオタイプの強化、偽情報の大量拡散が含まれます。 しかし、ペースを落とす代わりに、企業はお互いに優位に立つために、持っていたいくつかの安全機能を削除しています。 たとえば、OpenAI は、写真のようにリアルに生成された顔をソーシャル メディアで共有することを制限していました。 しかし、StabilityAI のような新しく形成されたスタートアップの後、 伝えられるところによると、なんと10億ドルの評価額で1億100万ドルを調達しました、そのような安全対策と呼ばれる父権主義、」OpenAI はこれらの制限を取り除きました。
EAの設立と資金提供により 研究所、 企業、 シンクタンク、 と エリート大学の研究グループ のブランドに専念 OpenAIが普及した「AIの安全」、「有益なAGI」への一歩として請求される有害なモデルがさらに急増するのを見る準備ができています. そして、その影響は早い段階で始まります: 効果的な利他主義者は「コミュニティ構築助成金」 主要な大学キャンパスで採用するために、 スタンフォード大学などのエリート大学で、EA の支部がカリキュラムを開発し、AI の安全性に関するクラスを教えています。.
つい昨年、 アンソロピックは、「AI の安全性と研究の会社」と呼ばれ、元 OpenAI の研究と安全性担当副社長によって設立されました。 7億400万ドルを調達、その資金のほとんどは、次のようなEAの億万長者から来ています タリン、マスコビッツ と バンクマンフライド. アン 「AIの安全性」に関する今後のワークショップ で NeurIPSは、世界で最大かつ最も影響力のある機械学習カンファレンスの 1 つであり、次のようにも宣伝されています。 FTXフューチャーファンドが後援、Bankman-Fried の EA に焦点を当てた慈善団体 どのチームが辞任したか 2週間前に。 このワークショップでは、「最優秀論文賞」に $100,000 を宣伝しています。これは、どの学問分野でも見たことがない金額です。
研究の優先事項は資金提供に続き、億万長者の支持者のイデオロギーを支持するために多額の資金が AI に投入されていることを考えると、この分野が「想像を絶する素晴らしい未来現在、疎外されたグループに害を及ぼす製品が急増している間、角を曲がったところにあります。
代わりに、私たちに役立つ技術の未来を作成できます。 たとえば、 言語技術を生み出したテヒクメディア データライセンスを作成し、テレオマオリを活性化するために」マオリの原則に基づいて カイティアキタンガ、または後見」 そのため、マオリから取得したデータは最初に彼らに利益をもたらします。 このアプローチを、次のような組織のアプローチと比較してください。 StabilityAI、 同意や帰属なしにアーティストの作品をスクレイピングする 「人々のためのAI」を構築することを目的としています。 私たちは、これまで売られてきたものから私たちの想像力を解放する必要があります: 少数の特権階級によって想像された架空の AGI の黙示録、またはシリコン バレーのエリートによって約束された、とらえどころのないテクノ ユートピアから私たちを救います。 私たちは、これまで売られてきたものから私たちの想像力を解放する必要があります: 少数の特権階級によって想像された架空の AGI の黙示録や、シリコン バレーのエリートたちが私たちに約束したとらえどころのないテクノ ユートピアから私たちを救います。