Nightshade は、アーティストが破損したトレーニング データで AI モデルを「汚染」できる新しいツールです。 from venturebeat.com

海外記事要約



MITの研究者らは、トレーニングしようとするAIモデルのためにアートを「毒する」Nightshadeと呼ばれるオープンソースツールを開発した。
研究者チームによって開発されたこのツールは、アーティストがウェブにアップロードする前に画像に追加することができ、「目に見えない」方法でピクセルを変更して、AI モデルにオオカミや猫のように見せることができます。
ただし、AI は、見ているオブジェクトの間違った名前を学習する可能性があります。

コメント

タイトルとURLをコピーしました