AI の進歩に関する年次報告書は、AI アプリケーションの展開と保護において、学界や政府に対する業界プレーヤーの優位性が高まっていることを浮き彫りにしています。
スタンフォード大学の研究者と、Google、Anthropic、Hugging Face などの AI 企業によってまとめられた 2023 AI インデックスは、AI の世界が新たな発展段階に入っていることを示唆しています。 この 1 年間で、ChatGPT のようなチャットボットから Midjourney のような画像生成ソフトウェアまで、多数の AI ツールが主流になりました。 しかし、このテクノロジーをどのように展開するか、およびリスクと機会のバランスをとる方法に関する決定は、企業のプレーヤーの手にしっかりと委ねられています。
最先端の AI には莫大なリソースが必要であり、研究は学界の範囲を超えています
AI インデックスによると、長年にわたって学界が最先端の AI システムの開発を主導してきましたが、現在では産業界がしっかりと引き継いでいます。 「2022 年には、学界で作成されたわずか 3 つの機械学習モデルと比較して、業界で作成された 32 の重要な機械学習モデルがありました」と、それは述べています。 これは主に、そのようなアプリケーションを作成するために必要なリソース (データ、スタッフ、コンピューティング パワー) の需要がますます大きくなっていることが原因です。
たとえば、2019 年に OpenAI は、初期の大言語モードである GPT-2 (LLM) を作成しました。これは、ChatGPT と Microsoft の Bing チャットボットを強化するために使用されるのと同じクラスのアプリケーションです。 GPT-2 のトレーニングには約 50,000 ドルかかり、15 億のパラメーター (モデルのサイズと相対的な洗練度を追跡する指標) が含まれています。 2022 年にスキップすると、Google は PaLM と呼ばれる独自の最先端の LLM を作成しました。 これは、トレーニングに推定 800 万ドルの費用がかかり、5,400 億のパラメーターが含まれているため、GPT-2 よりも 360 倍大きく、160 倍の費用がかかります。
AI 開発の増大するリソース要件は、力のバランスを企業プレーヤーにしっかりとシフトさせます。 AI の世界の多くの専門家は、企業が競合他社を打ち負かそうとして製品を急いで出し、安全性への懸念を脇に置くことで、ビジネス界のインセンティブも危険な結果につながるのではないかと心配しています。 これが、多くの専門家が現在、AI 開発の減速または一時停止さえ求めている理由の 1 つです。先週、Elon Musk を含む人物によって署名された公開書簡がそうです。
AIシステムがより広く展開されるにつれて、誤用の事件が大幅に増加しました
AI ツールが普及するにつれて、エラーや悪意のあるユース ケースの数も増加することは当然のことです。 それ自体は、適切な保護が欠如していることを示すものではありません。 しかし、Microsoft や Google などの企業が AIの安全性と倫理のチームを削減.
ただし、このレポートは、国会議員や政策立案者からの AI 規制への関心が高まっていることを指摘しています。 127 か国の立法記録を分析したところ、「人工知能」というフレーズを含む法案の数が、2016 年に可決された 1 件から 2022 年には 37 件に増加したことがわかりました。 2015 年に提案された法案から、2022 年に提案された 60 の AI 関連の法案への移行。このような関心の高まりは、企業の自主規制に対抗する重みを提供する可能性があります。
ただし、AI インデックス レポートは、これよりもはるかに広い範囲をカバーしています。 あなたはできる ここで全文を読む または、以下のいくつかのハイライトをご覧ください。