誰もが話している(または話している)4つのAI研究トレンド from venturebeat.com


同時に、世界のDeepMinds、Google、MetasはAIの研究を進めています。
AI研究における大規模言語モデルの創発的能力
これらの創発的能力が現れる理由に関して、提供されるいくつかの考えられる説明は、特定の数のステップを含むタスクも同じ深さのモデルを必要とする可能性があり、より多くのパラメーターとより多くのトレーニングがより良い暗記を可能にすることを想定するのが合理的であるということです世界の知識を必要とするタスクに役立ちます。
LLMのトレーニングの科学が進歩するにつれて、研究者は、新しいアーキテクチャ、高品質のデータ、または改善されたトレーニング手順を備えた小さなモデルでは、特定の能力が解き放たれる可能性があると指摘しています。
最近公開された研究で、Googleの研究者は、機械学習のトレーニングエネルギーを最大100倍、CO2排出量を最大1000倍削減できると主張するベストプラクティスを共有しています。
MLの研究者は、スパース性を活用したり、検索をより小さなモデルに統合したりするなどして、より効率的なMLモデルを開発し続ける必要があります。

コメント

タイトルとURLをコピーしました