
企業がより複雑な機械学習モデルを構築するにつれて、これらのモデルのトレーニングと実行のコストが現実の問題になります。 AWS は、コスト削減に役立つ一連のカスタム インスタンスを作成しました。本日、より大きなワークロードからのデータをより効率的に処理するように設計された、EC2 用のまったく新しい Inf2 インスタンスのプレビューを導入しました。
AWS の CEO である Adam Selipsky は、本日、ラスベガスで開催された AWS re:Invent で発表を行いました。
Selipsky が AWS re:Invent の聴衆に語ったように、「Inf1 は小規模から中程度の複雑さのモデルには最適ですが、大規模なモデルの場合、顧客は推論に最適なリソース構成を実際に持っていないため、より強力なインスタンスに依存することがよくあります。ワークロード。」
彼らがこれを行ったのは、これまで、これらの大規模なワークロードを処理するコストと複雑さを軽減するのに役立つ他のソリューションがなかったためです。
「特定のニーズに最適なソリューションを選択したいので、今日、新しい推論 2 チップを搭載した Inf2 インスタンスのプレビューを発表できることを嬉しく思います」と彼は言いました。
その余分な力が必要な人のために、Inf2 はそれを提供します。 「顧客は、Inf1 インスタンスの 4 倍のスループットと 1/10 のレイテンシーで、1 つの機器で推論用に 1750 億のパラメーター モデルを展開できます」と彼は言いました。
新しいインスタンスは、本日からプレビューで利用できます。