OpenAI の研究者らは、超人的な AI が非常に急速に近づいていることを発見しました。
この研究は、劣った AI モデルが、賢さを低下させることなく、より賢い AI モデルの動作をガイドできるようにするために実施されました。
「AGIは非常に危険であり、それを制御する方法はまだありません」と、最近研究論文が発表された「レオポルド・アッシェンブレナー」氏は述べた。
現在、人間は AI システムにどの回答が良くてどの回答が悪いのかフィードバックを与えています。
nnndning.net
海外記事要約
コメント