ジェニファー・エリアス / CNBC:
内部文書: Google は、2022 年のオリジナル PaLM の 780B トークンと 540B パラメータと比較して、3.6T トークンと 340B パラメータで PaLM 2 をトレーニングしました— – GoogleのPaLM 2大規模言語モデルは、前世代のLLMと比べてトレーニングに5倍近い量のテキストデータを使用しているとCNBCが明らかにした。
ジェニファー・エリアス / CNBC:
内部文書: Google は、2022 年のオリジナル PaLM の 780B トークンと 540B パラメータと比較して、3.6T トークンと 340B パラメータで PaLM 2 をトレーニングしました— – GoogleのPaLM 2大規模言語モデルは、前世代のLLMと比べてトレーニングに5倍近い量のテキストデータを使用しているとCNBCが明らかにした。