4chanの最も嫌なボードで訓練されたAIはあなたが期待するのと同じくらい有毒です from engadget.com


MotherboardとTheVergeが指摘しているように、YouTuberのYannic Kilcherは、人種差別やその他の偏見で悪名高い4chanのPolitically Incorrect(/ pol /)ボードの3年間のコンテンツを使用してAI言語モデルをトレーニングしました。
モデルを10個のボットに実装した後、KilcherはAIをボード上で緩めました。
それらはその日の/pol/の投稿の10パーセント以上を占めていた、とKilcherは主張した。
Kilcherによると、多くのフォーラムメンバーはボットの1つにしか気づかず、モデルは、Kilcherがボットを非アクティブ化してから数日後に人々がボットであると互いに非難するほどの警戒心を生み出しました。
彼はボットコードの提供を避けましたが、モデルの部分的に中立化されたバージョンをAIリポジトリのHuggingFaceと共有しました。

コメント

タイトルとURLをコピーしました