ML のトレーニングにビッグデータが必要ない理由 from venturebeat.com


トレーニング中、アルゴリズムは、オブジェクトのラベルを予測する方法を学習し、普遍的な依存関係を見つけ、見たことのないデータの問題を解決できることを期待して、ラベル付けされたデータを表示されます。
オーバーフィッティングは、アルゴリズムがトレーニング データセットを記憶しているが、見たことのないデータの処理方法を学習していない場合に発生します。
データに黒猫の写真のみが含まれている場合、アルゴリズムは関係を学習できます。
データが少なく、アルゴリズムが強力な場合、解釈できないノイズに焦点を当てて、すべてのデータを記憶できます。
このようなアルゴリズムは通常、大量のデータを必要としますが、プロンプトを表示することもできます。
したがって、出力が不確実なデータを探して、気付かれていないデータに対して中間アルゴリズムを実行し、それらをラベル付けのために人々に渡し、ラベル付け後に再度トレーニングすることができます。

コメント

タイトルとURLをコピーしました