
最近発表されたApple Machine Learning Researchの調査研究は、OpenAIのo1やClaudeの思考バリアントといった大規模言語モデルをAIが「推論」する方法に関する見解に疑問を投げかけています。
テストされた推論モデルはすべて、特定の複雑さの閾値を超えると精度が完全に低下し、十分な計算リソースがあっても成功率がゼロに低下しました。
研究者によると、完全な解法アルゴリズムを提供していたにもかかわらず、人間と同じ複雑さのポイントでは依然として失敗していました。
海外記事要約
コメント