Meta の Galactica の失敗が GPT-4 にとって何を意味するか | AIビート from venturebeat.com


Rodin の The Thinker のように、先週は大規模言語モデル (LLM) の展望について多くのことを考えたり熟考したりしました。
これは、Arxiv で公開された論文で、科学者の「情報過多」を支援することを目的とした「科学のための大きな言語モデル」と説明されています。
HELM は、CRFM のディレクターである Percy Liang 氏が、モデルの限界の認識に基づいて言語モデルを評価することにより、LLM 出力に関連する問題に対して全体論的なアプローチを取っていると説明しました。
私たちが実際に知っていることは、GPT-4がどのようなものであれ、大規模な言語モデルがまだリモートで完全に理解されていない環境でリリースされるということです.そして、懸念と批判は確かにその後に続くでしょう.
これは、大規模な言語モデルのリスクがすでに十分に文書化されているためです。
1 年後、確率論的オウムの危険性: 言語モデルが大きすぎる可能性についての論文が発表されました。

コメント

タイトルとURLをコピーしました