Instagramのアルゴリズムが小児性愛コンテンツを促進しているとの報道を受け、メタは行動を起こすと誓う from engadget.com


記者や研究者がメタ社のシステムが未成年のセックスコンテンツ専用の「アカウントの広大なネットワークを接続し促進する」のに役立っていることを発見したことを受けて、メタ社は社内対策委員会を設置したとウォール・ストリート・ジャーナル紙が報じた。
メタ社は対策本部とともに、児童性的虐待資料(CSAM)ネットワークのブロックに取り組み、システム変更の措置を講じていると記者団に語った。
同氏は、「アクセスが制限されている学者3人のチームがこれほど巨大なネットワークを発見できたということは、メタ社に警鐘を鳴らすべきだ」と述べ、メタ社はCSAMネットワークの地図を作成するための外部調査員よりもはるかに優れたツールを備えていると指摘した。
メタ氏によると、同社はこうしたユーザーの削除に積極的に取り組んでおり、1月だけで児童安全ポリシーに違反する49万件のアカウントを削除したという。
ポップアップ画面はユーザーに対し、「これらの検索結果には児童への「極度の危害」を引き起こす可能性のある児童性的虐待の画像が含まれている可能性がある」と警告した。
さらに、児童向けコンテンツを報告しようとするユーザーの試みは、Instagram のアルゴリズムによって無視されることがよくありました。

コメント

タイトルとURLをコピーしました