Nightshade は、アーティストが破損したトレーニング データで AI モデルを「汚染」できる新しいツールです。 from venturebeat.com 海外記事要約 Twitter Facebook はてブ Pocket LINE コピー 2023.10.24 venturebeat.com Meet Nightshade, the new tool allowing artists to ‘poison’ AI models with corrupted training data - venturebeat.com MITの研究者らは、トレーニングしようとするAIモデルのためにアートを「毒する」Nightshadeと呼ばれるオープンソースツールを開発した。 研究者チームによって開発されたこのツールは、アーティストがウェブにアップロードする前に画像に追加することができ、「目に見えない」方法でピクセルを変更して、AI モデルにオオカミや猫のように見せることができます。 ただし、AI は、見ているオブジェクトの間違った名前を学習する可能性があります。
コメント