AIがより安全なオンライン世界をどのように作成しているか – venturebeat.com


AIは、利用規約に違反するツイートの半分以上にフラグを立てますが、CEOのParag Agrawalは、悪意のある表現や誤った情報を特定するためにAIを使用することに重点を置いています。
同様に、FacebookのAIは、ヌード、暴力、その他の不快感を与える可能性のあるコンテンツなど、プラットフォームによって削除された悪意のある表現の90%近くを検出します。
もう1つの問題は、多くのAIベースのモデレーションシステムが人種的偏見を示しており、すべての人にとって安全で使用可能な環境を作成するために対処する必要があることです。
これらの問題を解決するには、AIモデレーションシステムに高品質のトレーニングデータが必要です。
たとえば、Facebookは、重要な言語でモデレーションシステムをトレーニングするために、高品質のデータを収集することで多くの問題に直面しています。
AIを利用したコンテンツのモデレーションは完璧なソリューションではありませんが、企業がプラットフォームを安全に保ち、害を及ぼさないようにするのに役立つ貴重なツールです。

コメント

タイトルとURLをコピーしました