LaMDAとSentientAITrap from WIRED(AI)


「AIの現在の物語と実際にできることの間にはかなり大きなギャップがあります」と、言語モデルに焦点を当てたスタートアップであるHuggingFaceの倫理学者であるGiadaPistilliは言います。
ブリンは、2017年の予測を言語モデルの進歩に基づいています。
ワシントン大学のコンピューター科学者であるYejinChoi氏は、LaMDAのように共感的であるように思われるが、大規模な言語モデルに驚かされる人は、チーズバーガーの刺し傷の事例を検討する必要があると述べています。
人間の言語を解読するには、複数の形式の常識的な理解が必要になる可能性があるため、言語モデルは時々間違いを犯します。
BIG-Benchには、読解だけでなく論理的推論や常識など、いくつかの伝統的なタイプの言語モデルテストが含まれています。
AIモデルの常識的な推論能力を文書化したアレン人工知能研究所のMOSAICプロジェクトの研究者は、Social-IQaと呼ばれるタスクに貢献しました。

コメント

タイトルとURLをコピーしました